Umfrage zu generativer KI

Chance versus Risiko

Laut einer Umfrage des TÜV-Verbands sorgt sich die Bevölkerung vor unkalkulierbaren Risiken, Fake-News-Schwemmen und Arbeitsplatzverlusten im Zusammenhang mit generativer künstlicher Intelligenz. 84 Prozent fordern gesetzliche Vorgaben für KI-Anwendungen.

TÜV-Verband e. V.

Anwendungen mit generativer Künstlicher Intelligenz (KI) wie etwa ChatGPT verbreiten sich rasant, verursachen aber auch erhebliche Sorgen in der Bevölkerung: Seit der Einführung im November haben schon 83 Prozent der Deustchen von ChatPT gehört. 23 Prozent haben das Tool bereits für berufliche oder private Zwecke genutzt. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.021 Personen ab 16 Jahren ergeben.

„Seit seiner Einführung zeigt ChatGPT eindrucksvoll, welches enorme Potenzial künstliche Intelligenz hat“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, bei Vorstellung der Studienergebnisse. ChatGPT zeige aber auch, welche Risiken mit dem Einsatz von künstlicher Intelligenz verbunden seien. So stimmen 80 Prozent der Befragten der Aussage zu, dass beim Einsatz von KI derzeit nicht abschätzbare Risiken bestehen. Fast zwei von drei befürchten, dass die Technologie für Menschen nicht mehr beherrschbar ist (65 Prozent) oder dass sie ohne ihr Wissen manipuliert werden könnten (61 Prozent). Und 76 Prozent haben Bedenken, dass KI persönliche Daten nicht ausreichend schützt.

„Es muss sichergestellt werden, dass KI-Anwendungen Menschen nicht körperlich verletzen oder benachteiligen“, sagte Bühler, der in der geplanten EU-KI-Verordnung eine Chance sieht, einen Rechtsrahmen für die ethische und sichere Nutzung von künstlicher Intelligenz in der EU zu schaffen. In der Studie befürworten 84 Prozent der Befragten gesetzliche Vorgaben für KI-Anwendungen.

Große Auswirkungen auf die Arbeitswelt

Was die Chancen und Risiken der Technologie angeht, sind die Meinungen geteilt. 50 Prozent sind der der Ansicht, dass unter dem Strich die Chancen die Risiken übersteigen. 39 Prozent sind nicht dieser Meinung und 12 Prozent sind unentschlossen. „Weitreichende Folgen wird künstliche Intelligenz für den Arbeitsmarkt haben“, sagte Bühler. 87 Prozent der Befragten gehen davon aus, dass KI die Arbeitswelt grundlegend verändern wird. Etwa die Hälfte glaubt, dass sehr viele Menschen als Folge des KI-Einsatzes ihren Job verlieren werden (48 Prozent). Allerdings machen sich derzeit nur 15 Prozent Sorgen, dass KI-Systeme ihre eigene berufliche Tätigkeit ersetzen werden. Viele der Befragten erwarten sogar Vorteile. So stimmt jeder zweite stimmt der Aussage zu, dass KI das Potenzial hat, ihn oder sie in ihrem Beruf zu unterstützen (50 Prozent). „Ein wahrscheinliches Szenario ist, dass KI-Anwendungen als digitale Assistenten die Beschäftigten bei der Bewältigung unterschiedlichster Aufgaben unterstützen werden“, sagte Bühler. Das gelte sowohl für Büroarbeiten als auch für die Planung und Durchführung manueller Tätigkeiten.

Gefahren für Mediensystem und Demokratie

Große Sorgen bereitet der Bevölkerung die Auswirkungen von generativen KI-Anwendungen für das Mediensystem und unser politisches System. Gut geben 51 Prozent an, dass die Technologie eine Gefahr für die Demokratie sei. Dabei gehe es etwa um Falschnachrichten, Propaganda und manipulierte Bilder, Texte und Videos, so Bühler. Laut Umfrage gehen 84 Prozent der Befragten davon aus, dass KI die Verbreitung von ‘Fake News’ massiv beschleunigen werde. 91 Prozent glauben, dass kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Und gut zwei von drei Befragten fürchten, dass KI die Verbreitung staatlicher Propaganda massiv beschleunigen wird (69 Prozent). Bühler: „Mit Künstlicher Intelligenz erstellte Inhalte werden die demokratischen Gesellschaften vor enorme Herausforderungen stellen.“

Forderung nach rechtlichem Rahmen

91 Prozent der Befragten fordern, dass der Gesetzgeber einen rechtlichen Rahmen für den sicheren Einsatz von KI schaffen sollte. Dabei sollte sich die Regulierung und Nutzung von KI in der EU an europäischen Werten orientieren, sagen 83 Prozent. Nur 16 Prozent sind dagegen der Meinung, dass man KI derzeit nicht regulieren und die ethische Entwicklung den Tech-Unternehmen überlassen sollte. 94 Prozent sprechen sich zudem für eine Kennzeichnungspflicht für automatisiert bzw. mit KI-Unterstützung erzeugte Inhalte aus, 88 Prozent für eine Kennzeichnung, dass KI in einem Produkt oder einer Anwendung ‘enthalten’ ist, und 86 Prozent fordern eine verpflichtende Prüfung der Qualität und Sicherheit von KI-Systemen durch unabhängige Prüforganisationen.

EU als Vorreiter?

Aus Sicht des TÜV-Verbands leitet sich daraus ein klarer Handlungsauftrag für die Politik ab. „Mit dem AI Act ist die EU globaler Vorreiter bei der Gesetzgebung in den demokratisch organisierten Wirtschaftsblöcken“, sagte Bühler und sprach sich für klare am Risiko orientierte Regeln aus. „Mit einer intelligenten Regulierung können wir einen internationalen Standard für innovative und wertebasierte KI setzen.“

Der Entwurf des AI Acts sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Die geplanten Regelungen reichen von einem Verbot für KI-Anwendungen mit einem ‘unannehmbaren Risiko’ wie etwa Social Scoring bis zu keinerlei Vorgaben für Anwendungen mit ‘minimalem Risiko’ wie Spamfiltern oder Games. Bühler schätzt, dass etwa 80 Prozent der Anwendungen unter diese Kategorie fallen. KI-Systeme mit einem ‘begrenzten Risiko’ wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem ‘hohen Risiko’, etwa in kritischen Infrastrukturen, Software im Personalwesen oder bestimmte KI-basierte Roboter, gelten strenge Sicherheitsanforderungen. Diese müssen neben Transparenzpflichten auch Anforderungen wie die Erklärbarkeit ihrer Ergebnisse oder Diskriminierungsfreiheit erfüllen. Bühler: „Vor ihrer Markteinführung sollten alle Hochrisiko-KI-Systeme von einer unabhängigen Stelle überprüft werden. Nur so kann sichergestellt werden, dass die Anwendungen den Sicherheitsanforderungen entsprechen.“

Das könnte Sie auch interessieren

Im Rahmen der Initiative ’Mission KI’ der Bundesregierung entstehen zwei KI-Zentren, eines davon in enger Kooperation mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern. Gründer, Startups und Unternehmen sollen dort Zugang zur Spitzenforschung erhalten und ihre Anwendungen in Testumgebungen verbessern können.‣ weiterlesen

In einer aktuellen Studie mahnt der Elektronikkonzern Sharp die Wichtigkeit von IT-Sicherheitsmaßnahmen für Multifunktionsdrucker (MFPs) an. Demnach war bereits jedes fünfte deutsche KMU von einer über MFPs ausgehenden IT-Sicherheitsverletzung betroffen. Dennoch hat mehr als ein Drittel keine druckerspezifischen Sicherheitsvorkehrungen getroffen.‣ weiterlesen

Nachhaltigkeit ja, nur wie? Eine Lünendonk-Studie zeigt, dass viele Industrieunternehmen zwar eine Strategie haben, die Umsetzung dieser allerdings vielerorts noch stockt. Die Erwartungen an die Unternehmen werden jedoch nicht kleiner.‣ weiterlesen

Die vierte industrielle Revolution macht aus Produktionsanlagen ein intelligentes Netz aus Maschinen und Prozessen – theoretisch. Auf dem Weg dorthin scheitern Unternehmen häufig, wenn künstliche Intelligenz und ML-Methoden im Spiel sind. Eine sorgsam geplanten Transformationsstrategie hilft das zu vermeiden.‣ weiterlesen

Lieferkettenstörungen sind eine Belastung für Industrieunternehmen, die bis hin zum Produktionsstillstand führen können. Dies war im vergangenen Jahr an 32 Tagen der Fall. Um sich diesem Problem entgegenzustellen, will die Mehrheit der Unternehmen auf die Diversifizierung der Lieferketten setzen.‣ weiterlesen

Aktuell befindet sich die Branche mitten in der Transformation von KI in Fertigungsprozessen und es gibt viele Fallstudien, die zeigen, wie KI erfolgreich implementiert werden kann. Eine Erkenntniss ist, dass sich 90 Prozent aller Arbeiten in einem KI-Projekt nicht wirklich um KI selbst drehen, sondern um Hilfsprozesse, wie etwa die Bereinigung von Daten, die Organisation von Teams oder Umstrukturierungen.‣ weiterlesen

Die IDTA bietet auf der SPS 2023 eine zentrale Anlaufstelle für alle Themen rund um die Verwaltungsschale. Unter anderem sollen zwei Demonstratoren den Einsatz der Verwaltungsschale für spezifische Anwendungen veranschaulichen.‣ weiterlesen

Exklusiv für Abonnenten

Bei der IT-Sicherheit ist die Rolle von Angestellten im Wandel. Immer mehr Unternehmen setzen auf Human Centered Security und betrachten ihre Mitarbeitenden als Aktivposten im Kampf gegen kriminelle Hacker. Wie es aktuell um den Faktor Mensch bei der IT-Sicherheit steht, zeigt die Studie 'Cybersicherheit in Zahlen' von G Data CyberDefense, Statista und brand eins.‣ weiterlesen

Ein Unternehmen mit Produktionsstandorten in Europa, Asien oder Südamerika arbeitet mit hunderten, teils tausenden Logistik- und Transportdienstleistern zusammen. Die eigene Lieferkette zu überblicken, ist daher die Herkulesaufgabe bei der Ermittlung des Carbon Footprints. Ein Produkt dafür bietet das Unternehmen Shipzero, das eine Datenplattform zur Messung von CO2-Emissionen extra für die Transport- und Logistikbranche entwickelt hat. Die Anwendung ermöglicht den Datenaustausch zwischen Verladern und Dienstleistern, ermittelt präzise Scope-3-Emissionen und identifiziert Maßnahmen zur Dekarbonisierung.‣ weiterlesen

Ein Forschungskonsortium hat sich im Projekt 'Härtung der Wertschöpfungskette durch quelloffene, vertrauenswürdige EDA-Tools und Prozessoren' (HEP) das Ziel gesetzt, einen Chip aus kostenlosen und quelloffenen Komponenten zu fertigen. Das Verspricht Vorteile für Studenten, KMUs und Großindustrie.‣ weiterlesen

Ransomware-Angriffe sind nach wie vor die größte Bedrohung aus dem Cyberraum. Das geht aus dem aktuellen BSI-Lagebericht hervor, den Bundesinnenministerin Nancy Faeser und BSI-Präsidentin Claudia Plattner nun vorgestellt haben.‣ weiterlesen