Pattsituation in Sachen Glaubwürdigkeit

Künstliche Intelligenz vs. Mensch

Texte, die von einer künstlichen Intelligenz geschrieben wurden, sind leicht zu erkennen? Ganz so einfach scheint es nicht zu sein, wie ein gemeinsames Forschungsteam der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz herausgefunden hat.

Bild: ©Dominik Sobania und Louisa Schwarz

In einer Zeit, in der das Internet für viele Menschen zur Hauptquelle von Informationen geworden ist, hat die Glaubwürdigkeit von Online-Inhalten und deren Quellen einen kritischen Wendepunkt erreicht. Dieses Besorgnis wird durch die Verbreitung von Anwendungen generativer künstlicher Intelligenz (KI) wie ChatGPT und Google Bard verstärkt. Im Gegensatz zu Plattformen, deren Inhalte von Menschen erstellt und betreut werden, erzeugen KI-gesteuerte Systeme die Inhalte eigenständig – oft mit Fehlern. Eine gemeinsame Studie der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU) widmet sich der Frage, wie Nutzer die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Benutzeroberflächen beurteilen. An der Studie haben mehr als 600 englischsprachige Personen teilgenommen.

Ähnliche Glaubwürdigkeit

Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, betont: “Unsere Studie enthüllte einige wirklich überraschende Erkenntnisse. Es zeigte sich, dass die Teilnehmer unserer Studie KI-generierte und menschen-generierte Inhalte als ähnlich glaubwürdig einschätzen und zwar unabhängig von der Benutzeroberfläche.” Und er fügt hinzu: “Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen.”

Menschen sensibilisieren

Prof. Dr. Franz Rothlauf von der Johannes Gutenberg-Universität Mainz sagt dazu: “Der Beitrag zeigt auf, dass im Zeitalter von ChatGPT Menschen nicht mehr zwischen Mensch und Maschine unterscheiden können. Da Maschinen allerdings nicht ‘wissen’, sondern statistisch raten, brauchen wir zukünftig eine Kennzeichnungspflicht von maschinengeneriertem Wissen. Sonst können Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden.” Es bleibe außerdem eine Aufgabe der Wissenschaftskommunikation und nicht zuletzt auch eine gesellschaftliche und politische Herausforderung, den Menschen für eine verantwortungsvolle Verwendung von KI-generierten Inhalten zu sensibilisieren, so die Studienverantwortlichen. www.uni-mainz.de

Das könnte Sie auch interessieren

Vom 22. bis zum 26. April wird Hannover zum Schaufenster für die Industrie. Neben künstlicher Intelligenz sollen insbesondere Produkte und Services für eine nachhaltigere Industrie im Fokus stehen.‣ weiterlesen

Eine Umfrage von Hewlett Packard Enterprise (HPE) unter 400 Führungskräften in Industrie-Unternehmen in Deutschland zeigt, dass zwei Drittel der Befragten den Data Act als Chance wahrnehmen. Der Data Act stieß unter anderem bei Branchenverbänden auf Kritik.‣ weiterlesen

Carbon Management-Technologien stehen im Fokus, um CO2-Emissionen zu reduzieren und zu managen. Die Rolle des Maschinenbaus und mögliche Entwicklungspfade betrachtet eine neue Studie des VDMA Competence Center Future Business.‣ weiterlesen

Deutsche Unternehmen nehmen eine zunehmende Bedrohung durch Cyber-Angriffe wahr. Das zeigt eine aktuelle Umfrage vom Markt- und Meinungsforschungsinstitut YouGov im Auftrag von 1&1 Versatel, an der mehr als 1.000 Unternehmensentscheider teilnahmen.‣ weiterlesen

Fraunhofer-Forschende haben für Fahrer und Fahrerinnen von Baumaschinen einen Helm mit integriertem Beschleunigungssensor entwickelt. Die Helm-Sensorik misst die Vibrationen der Baumaschinen. Die Sensorsignale werden analysiert, eine Software zeigt die Belastung für den Menschen an.‣ weiterlesen

Hohe Geschwindigkeit und hohe Erkennungsraten sind die Anforderungen an die Qualitätskontrolle in der Verpackungsbranche. Wie diese Anforderungen erreicht werden können, zeigt das Unternehmen Inndeo mit einem Automatisierungssystem auf Basis von industrieller Bildverarbeitung und Deep Learning.‣ weiterlesen

Laut einer Studie der Unternehmensberatung Bain & Company könnten Unternehmen ihre Produktivität durch digitale Tools, Industrie 4.0-Technologien und Nachhaltigkeitsmaßnahmen steigern. Deren Implementierung von folgt oft jedoch keiner konzertierten Strategie.‣ weiterlesen

Jeder zweite Betrieb investiert laut einer Betriebsräte-Befragung der IG Metall zu wenig am Standort. Demnach verfügen rund 48 Prozent der Unternehmen über eine Transformationsstrategie. Zudem sehen die Betriebsräte ein erhöhtes Risiko für Verlagerungen.‣ weiterlesen

Ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten, ist oft nicht klar. Im Projekt 'DiReProFit' wollen Forschende dieses Problem mit künstlicher Intelligenz zu lösen.‣ weiterlesen

Ziel des neuen VDMA-Forums Manufacturing-X ist es, der zunehmenden Bedeutung von Datenräumen als Basis für neue, digitale Geschäftsmodelle Rechnung zu tragen. Wie der Verband mitteilt, soll das Forum auf dem aufbauen, was in der letzten Dekade durch das VDMA-Forum Industrie 4.0 erarbeitet wurde. ‣ weiterlesen

Wie kann eine Maschine lernen, sich in unserer Lebenswelt visuell zu orientieren? Mit dieser Frage setzen sich die Wissenschaftler am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) aktuell auseinander – und entwickeln Lösungen.‣ weiterlesen