Pattsituation in Sachen Glaubwürdigkeit

Künstliche Intelligenz vs. Mensch

Texte, die von einer künstlichen Intelligenz geschrieben wurden, sind leicht zu erkennen? Ganz so einfach scheint es nicht zu sein, wie ein gemeinsames Forschungsteam der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz herausgefunden hat.

Bild: ©Dominik Sobania und Louisa Schwarz

In einer Zeit, in der das Internet für viele Menschen zur Hauptquelle von Informationen geworden ist, hat die Glaubwürdigkeit von Online-Inhalten und deren Quellen einen kritischen Wendepunkt erreicht. Dieses Besorgnis wird durch die Verbreitung von Anwendungen generativer künstlicher Intelligenz (KI) wie ChatGPT und Google Bard verstärkt. Im Gegensatz zu Plattformen, deren Inhalte von Menschen erstellt und betreut werden, erzeugen KI-gesteuerte Systeme die Inhalte eigenständig – oft mit Fehlern. Eine gemeinsame Studie der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU) widmet sich der Frage, wie Nutzer die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Benutzeroberflächen beurteilen. An der Studie haben mehr als 600 englischsprachige Personen teilgenommen.

Ähnliche Glaubwürdigkeit

Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, betont: “Unsere Studie enthüllte einige wirklich überraschende Erkenntnisse. Es zeigte sich, dass die Teilnehmer unserer Studie KI-generierte und menschen-generierte Inhalte als ähnlich glaubwürdig einschätzen und zwar unabhängig von der Benutzeroberfläche.” Und er fügt hinzu: “Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen.”

Menschen sensibilisieren

Prof. Dr. Franz Rothlauf von der Johannes Gutenberg-Universität Mainz sagt dazu: “Der Beitrag zeigt auf, dass im Zeitalter von ChatGPT Menschen nicht mehr zwischen Mensch und Maschine unterscheiden können. Da Maschinen allerdings nicht ‘wissen’, sondern statistisch raten, brauchen wir zukünftig eine Kennzeichnungspflicht von maschinengeneriertem Wissen. Sonst können Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden.” Es bleibe außerdem eine Aufgabe der Wissenschaftskommunikation und nicht zuletzt auch eine gesellschaftliche und politische Herausforderung, den Menschen für eine verantwortungsvolle Verwendung von KI-generierten Inhalten zu sensibilisieren, so die Studienverantwortlichen. www.uni-mainz.de

Das könnte Sie auch interessieren

Werkzeugbahnen für Zerspanprozesse in CAM-Systemen zu planen erfordert Expertenwissen. Viele Parameter müssen bestimmt und geprüft werden, um die Bahnplanung Schritt für Schritt zu optimieren. Im Projekt CAMStylus arbeiten die Beteiligten daran, diese Aufgabe zu vereinfachen - per KI-gestützter Virtual-Reality-Umgebung.‣ weiterlesen

Wanja Wiese untersucht die Bedingungen, die für ein Bewusstsein erfüllt sein müssen. Mindestens eine findet er im Computer nicht.‣ weiterlesen

In einer Studie von Techconsult in Zusammenarbeit mit Grandcentrix wurden 200 Unternehmen ab 250 Beschäftigten aller Branchen zum Thema ESG in ihren Unternehmen befragt. Die Studie hebt die zentrale Rolle der jüngsten CSR-Direktive der EU bei der Förderung von Transparenz und Nachhaltigkeit in Unternehmen hervor. Dabei beleuchtet sie die Fortschritte und Herausforderungen bei der Umsetzung von Umwelt-, Sozial- und Unternehmensführungskriterien (ESG) im Zusammenhang mit der Nutzung von IoT-Technologien.‣ weiterlesen

AappliedAI hat vier KI Use Cases identifiziert, die es dem produzierenden Gewerbe ermöglichen, ihre Effizienz und Produktivität zu steigern. Mit der Anwendung bewährter Technologien können sich die Investitionen bereits nach einem Jahr amortisieren.‣ weiterlesen

Hinter jedem erfolgreichen Start-up steht eine gute Idee. Bei RockFarm sind es gleich mehrere: Das Berliner Unternehmen baut nachhaltige Natursteinmauern aus CO2 bindendem Lavagestein. Oder besser gesagt, es lässt sie bauen - von einem Yaskawa-Cobot HC10DTP.‣ weiterlesen

Mit über 2,2Mio.t verarbeitetem Schrott pro Jahr ist die Swiss Steel Group einer der größten Recyclingbetriebe Europas. Für seinen 'Green Steel', also Stahl aus recyceltem Material, arbeitet das Unternehmen an einem digitalen Zwilling des ankommenden Schrotts.‣ weiterlesen

Laut einer aktuellen Studie von Hitachi Vantara betrachten fast alle der dafür befragten Unternehmen GenAI als eine der Top-5-Prioritäten. Aber nur 44 Prozent haben umfassende Governance-Richtlinien eingeführt.‣ weiterlesen

61 Prozent der Unternehmen in Deutschland wollen laut einer Bitkom-Befragung per Cloud interne Prozesse digitalisieren, vor einem Jahr waren es nur 45 Prozent. Mittelfristig wollen die Unternehmen mehr als 50 Prozent ihrer Anwendungen in die Cloud verlagern.‣ weiterlesen

Mit generativer KI erlebt 'Right Brain AI', also eine KI, die kreative Fähigkeiten der rechten menschlichen Gehirnhälfte nachahmt, derzeit einen rasanten Aufstieg. Dieser öffnet aber auch die Tür für einen breiteren Einsatz von eher analytischer 'Left Brain AI'. Das zeigt eine aktuelle Studie von Pegasystems.‣ weiterlesen

Um klima- und ressourcengerechtes Bauen voranzubringen, arbeiten Forschende der Bergischen Universität Wuppertal in ihrem Projekt TimberConnect an der Optimierung von digitalen Prozessen entlang der Lieferkette von Holzbauteilen. Ihr Ziel ist unter anderem, digitale Produktpässe zu erzeugen.‣ weiterlesen

Rund zwei Drittel der Erwerbstätigen in Deutschland verwenden ChatGPT und Co. zumindest testweise, 37 Prozent arbeiten regelmäßig mit KI-Anwendungen. Doch auch Cyberkriminelle machen sich vermehrt die Stärken künstlicher Intelligenz zunutze - mit weitreichenden Folgen.‣ weiterlesen