Pattsituation in Sachen Glaubwürdigkeit

Künstliche Intelligenz vs. Mensch

Texte, die von einer künstlichen Intelligenz geschrieben wurden, sind leicht zu erkennen? Ganz so einfach scheint es nicht zu sein, wie ein gemeinsames Forschungsteam der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz herausgefunden hat.

Bild: ©Dominik Sobania und Louisa Schwarz

In einer Zeit, in der das Internet für viele Menschen zur Hauptquelle von Informationen geworden ist, hat die Glaubwürdigkeit von Online-Inhalten und deren Quellen einen kritischen Wendepunkt erreicht. Dieses Besorgnis wird durch die Verbreitung von Anwendungen generativer künstlicher Intelligenz (KI) wie ChatGPT und Google Bard verstärkt. Im Gegensatz zu Plattformen, deren Inhalte von Menschen erstellt und betreut werden, erzeugen KI-gesteuerte Systeme die Inhalte eigenständig – oft mit Fehlern. Eine gemeinsame Studie der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU) widmet sich der Frage, wie Nutzer die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Benutzeroberflächen beurteilen. An der Studie haben mehr als 600 englischsprachige Personen teilgenommen.

Ähnliche Glaubwürdigkeit

Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, betont: “Unsere Studie enthüllte einige wirklich überraschende Erkenntnisse. Es zeigte sich, dass die Teilnehmer unserer Studie KI-generierte und menschen-generierte Inhalte als ähnlich glaubwürdig einschätzen und zwar unabhängig von der Benutzeroberfläche.” Und er fügt hinzu: “Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen.”

Menschen sensibilisieren

Prof. Dr. Franz Rothlauf von der Johannes Gutenberg-Universität Mainz sagt dazu: “Der Beitrag zeigt auf, dass im Zeitalter von ChatGPT Menschen nicht mehr zwischen Mensch und Maschine unterscheiden können. Da Maschinen allerdings nicht ‘wissen’, sondern statistisch raten, brauchen wir zukünftig eine Kennzeichnungspflicht von maschinengeneriertem Wissen. Sonst können Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden.” Es bleibe außerdem eine Aufgabe der Wissenschaftskommunikation und nicht zuletzt auch eine gesellschaftliche und politische Herausforderung, den Menschen für eine verantwortungsvolle Verwendung von KI-generierten Inhalten zu sensibilisieren, so die Studienverantwortlichen. www.uni-mainz.de

Das könnte Sie auch interessieren

Data Sharing birgt großes Potenzial, wird aber kaum genutzt. Rechtssicherheit, gemeinsame Modelle und finanzielle Anreize könnten Unternehmen zum Teilen bewegen, so repräsentative eine ZEW-Studie mit 1.400 Firmen.‣ weiterlesen

Laut der Staufen-Studie 'Performance-Treiber 2024' gehen acht von zehn der mehr als 200 befragten Industrieunternehmen davon aus, dass die Einführung neuer Technologien für einen Produktivitätsschub sorgen wird. Vor allem in der Datenanalyse werden große Potenziale gesehen.‣ weiterlesen

Mehr als 700 Ingenieure und Entwickler geben in aktueller Protolabs-Studie Einblicke zu momentanen und künftigen Herausforderungen der Produktentwicklung. Demnach wissen Unternehmen mit Problemen wie etwa Materialknappheit umzugehen. Andere Einflussfaktoren wirken sich jedoch stärker aus.‣ weiterlesen

Das TCS Thought Leadership Institute hat rund fast 1.300 CEOs und Führungskräfte zum Thema künstliche Intelligenz befragt. Mehr als die Hälfte der Befragten glaubt demnach, dass die Bedeutung von KI größer oder gleich groß sein wird wie die des Internets (54 Prozent) und des Smartphones (59 Prozent). Um von den Effekten durch KI zu profitieren, müssen sich jedoch vielerorts auch Strukturen ändern.‣ weiterlesen

Deutsche und Schweizer C-Level Manager sehen besonders für das Homeoffice Handlungsbedarf, um dort in der Zukunft sensible Daten besser zu schützen. Die Österreicher halten Smart-Building-Technologien für anfällig. Dies zeigen die Ergebnisse einer Studie des Security-Spezialisten Sophos.‣ weiterlesen

Leistungsfähige Mikrochips sind entscheidend für den erfolgreichen Einsatz von künstlicher Intelligenz (KI). Das am Karlsruher Institut für Technologie koordinierte, vom Bundesforschungsministerium geförderte Projekt EDAI verfolgt einen neuen Ansatz: Die Forschenden koppeln den Entwurf von KI-Algorithmen und KI-Chips.‣ weiterlesen

Washtec produziert Autowaschtechnik für Kunden auf der ganzen Welt. Der Erfinder der Portalwaschanlage beschäftigt rund 1.800 Angestellte in mehr als 80 Ländern und hat mehr als zehntausend Waschanlagen an sein Kundenportal angeschlossen. Die anfallenden Daten werden dazu genutzt, den Anlagenbetrieb zu optimieren und neue Services zu ermöglichen.‣ weiterlesen

Was mit Produkten wie Siri oder Alexa für das eigene Zuhause bereits im Alltag angekommen ist, könnte auch in Produktionsumgebungen Mehrwerte schaffen - die Sprachsteuerung von Maschinen. Der Embedded-KI-Spezialist Aitad zeigt die Möglichkeiten auf.‣ weiterlesen

Der Forschungsbeirat Industrie 4.0 stellt mit seiner Engineering-Roadmap und den darin enthaltenen Themenblöcken einen Rahmen für konkrete Forschungsschwerpunkte der nächsten zehn Jahre vor. Im Mittelpunkt stehen vier Hauptthemen.‣ weiterlesen

Die SPS wird im nächsten Jahr (2025) vom 25. bis zum 27. November in Nürnberg stattfinden und somit wieder auf den seit vielen Jahren bekannten Zeitraum zurückkehren.‣ weiterlesen

Laut aktuellem Lagebild Cyberkriminalität sind Taten aus dem Ausland erneut gestiegen während solche aus dem Inland leicht rückläufig waren. Mehr als 800 Unternehmen haben 2023 einen Ransomwareangriff angezeigt, wobei von einer weitaus höheren Dunkelziffer ausgegangen wird.‣ weiterlesen