Gesellschaftliche Aspekte von künstlicher Intelligenz

Automatisierung des Denkens –
Chancen und Risiken

Politik, Wissenschaft und Wirtschaft investieren weltweit Milliarden in die Weiterentwicklung des Einsatzes von künstlicher Intelligenz (KI) in unterschiedlichsten gesellschaftlichen Bereichen. Gleichzeitig versuchen sie, Rahmenbedingungen durch Gesetze, Normen und ethische Leitlinien für einen sinnvollen Umgang mit der Technologie zu schaffen und den gesellschaftlichen Nutzen hervorzuheben, um Vorbehalte in der Bevölkerung zu verringern und Akzeptanz zu schaffen. Wie weit ist die Technologie heute und was steht uns in naher Zukunft noch bevor? Tritt der Mensch seine Entscheidungshoheit mehr und mehr an Maschinen ab, die Entscheidungen teils schneller aber durch Hinzulernen veränderlich treffen?

 (Bild: Silicon Software GmbH)

(Bild: Silicon Software GmbH)

Künstliche Intelligenz umfasst unterschiedliche Technologien: Algorithmen, die über ein höheres, das heißt menschlicheres Denk- und Begriffsvermögen verfügen durch Nachahmung von menschlichen Denkprozessen und der synaptischen Verbindungen im Gehirn; maschinelles Lernen über Algorithmen, die fortlaufend und ohne weiteres Eingreifen des Menschen lernen, Aufgaben zu bewältigen; die Zusammenarbeit zwischen Mensch und Maschine sowie in Roboter eingebaute KI-Systeme. Unternehmen, die auf KI setzen, versprechen sich mehr Umsatz. Die Forschung und Entwicklung beschäftigt sich schwerpunktmäßig mit der Automatisierung menschlichen intelligenten Verhaltens wie Denken, Wissensverarbeitung, Planung, Kommunikation und Wahrnehmung – bis hin zu Systemen, die jede intellektuelle Aufgabe bewältigen, zu der Menschen fähig sind. Diese Idee einer menschenähnlichen Intelligenz von Maschinen, Geräten oder Robotern scheint noch in der weiten Zukunft zu liegen, ist daher spekulativ und kann derzeit kaum als Basis für die Bewertung ethischer und gesellschaftlicher Aspekte dienen. Denn Maschinen lernen nur aus der Vergangenheit und sind nicht imstande, sich die Zukunft vorzustellen. Von Verstehen und Bewusstsein sind intelligente Systeme noch weit entfernt.

Menschliche Fähigkeiten wie Flexibilität, Kreativität, emotionale Intelligenz und kritisches Urteilsvermögen sind Maschinen (noch) fremd. Bis künstliche Intelligenz menschliches Niveau erreicht kann es noch Jahrzehnte bis ein Jahrhundert lang dauern, schätzen Wissenschaftler. Somit stehen derzeit die Kollaboration von Mensch und Maschine und die Synergie der jeweiligen Stärken im Mittelpunkt des Technologieeinsatzes, auch wenn die Forschung sich mit weitergehenden Zukunftsszenarien beschäftigt. Wie werden Mensch und Maschine künftig zusammenarbeiten? Unterstützt KI die Entscheidungsfindung oder trifft sie selbst autonom Entscheidungen? Das Szenario für die kommenden Jahre lautet am wahrscheinlichsten: KI-Systeme und menschliche Experten treffen gemeinsam bessere Entscheidungen als jeweils für sich allein – wobei der Mensch in manchen Fällen gänzlich zurücktritt. So werden autonome Schiffe Gefahren selbstständig ausweichen und komplexe Andockmanöver ohne Kapitän auf der Brücke bewältigen. Mit Sensoren und Computertechnologie ausgestattete intelligente Roboter werden Sensordaten nicht nur lesen, sondern sie interpretieren und ihre Aktionen entsprechend dieser Interpretation modifizieren. Daher wird künstliche Intelligenz heutzutage im Wesentlichen in spezifischen Anwendungen als maschinelles Lernen eingesetzt. Hierbei wird eine Maschine mit einem gewissen Grad an Intelligenz und Autonomie ausgestattet durch Anlernen von Fähigkeiten anstatt wie bisher durch Programmieren.

Ziel beim maschinellen Lernen ist es, Daten aus verschiedenen Quellen intelligent miteinander zu verknüpfen, relevante Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Vorhersagen zu treffen. Im industriellen Umfeld beispielsweise ermöglicht es die Vorhersage bestimmter Situationen wie Maschinenausfälle (vorausschauende Wartung) oder die Unterstützung des Maschinenbedieners durch Expertensysteme und somit die Optimierung betrieblicher Abläufe. KI-Anwendungen wie virtuelle Assistenten, Spracherkennung, selbstfahrende Autos und vieles mehr sind in aller Munde. Die Chancen und Vorteile der KI sind – allen Vorbehalten zum Trotz – eher unstrittig. Doch wie lassen sich bei einer solch sinnvollen Technologie zu viel Maschinenautonomie oder gar Missbrauch (von Daten und Entscheidungen) vermeiden bzw. ausschließen und ethische Maßstäbe, Sicherheit sowie Schutz der Privatsphäre gewährleisten?

Hand pointing at glowing digital brain. Artificial intelligence and future concept. 3D Rendering (Bild: Silicon Software GmbH)

Hand pointing at glowing digital brain. Artificial intelligence and future concept. 3D Rendering (Bild: Silicon Software GmbH)

Transparenz vs. Datenschutz

Intransparente Blackbox-Algorithmen und automatisierte Entscheidungsfindung schrecken viele Menschen ab. Sie empfinden eine Ohnmacht gegenüber Technologieentscheidungen, die sie unmittelbar betreffen oder betroffen machen. Nachrichten über den Einsatz autonomer Waffensysteme, undurchsichtige Überwachung von Menschen, Schufa-Ratings oder über fehlerhaftes autonomes Fahren sind Negativbeispiele – umso mehr wenn Fehler gehäuft auftreten wie bei der versuchsweisen massenhaften Gesichtserkennung an Bahnhöfen. Oder wenn Einkäufe für Freunde bei Amazon das eigene Profil ändern, was dann nicht mehr zu korrigieren ist. Dagegen steht eine Fülle sinnvoller Einsatzszenarien wie etwa in der Medizin, wo ein angelerntes intelligentes System bessere Ergebnisse beim Hautscreening lieferte als die meisten der 58 geladenen Hautärzte. Genauso bahnbrechend ist die Entwicklung von `Radiomics´. Dabei werden radiologische Daten mit molekularbiologischen Daten und weiteren klinischen Kennzeichen in Beziehung gesetzt und über Algorithmen interpretiert. Künstliche Intelligenz ist in der Medizin eine wichtige unterstützende Hilfe für die Diagnostik, um z.B. Mikrometastasen oder schwere Krankheiten wie Psychosen, Depressionen, Krebs und Alzheimer noch im Anfangsstadium viel früher zu erkennen. Bislang bildeten Algorithmen die Basis für Daten, die zu Entscheidungen führten. Mit künstlicher Intelligenz finden Algorithmen aus komplexen Datenmengen Muster als Basis für Entscheidungen und treffen Vorhersagen, die mit einer gewissen Wahrscheinlichkeit eintreten. Algorithmen können neue Kausalitäten finden, die Menschen bislang verborgen waren.

Bereits heute entscheiden Algorithmen, ob man am Automaten sein Geld ausbezahlt bekommt, erkennen Gesichter in den sozialen Medien und bearbeiten Aufgaben auf dem Smartphone. Wie steht es hier um den Konsumentenschutz? Immer häufiger werden private Daten und Merkmale zur Datenverarbeitung herangezogen und miteinander verknüpft. Die EU-Datenschutzgrundverordnung schreibt Transparenz bei Entscheidungen vor. Bei der Frage, warum ein Kredit abgelehnt wurde, reicht daher als Antwort “Die Maschine hat so entschieden” nicht aus. Grundsätzlich stellt sich auch die Haftungsfrage, wenn automatisierte Entscheidungen Menschen oder Gegenständen einen Schaden zufügen. In solchen Fällen ist es notwendig, dass KI-Systemen keine Rechtspersönlichkeit zugesprochen wird und die Hersteller haftbar bleiben. Der Grad an Autonomie von künstlicher Intelligenz ist prinzipiell durch den Verwendungszweck, die vom Entwickler definierten Grenzen, gesetzliche und betriebliche Anforderungen, physikalische Prozesse und technische Normen begrenzt. Insbesondere in physische Produkte eingebettete Funktionalität läuft nur im Rahmen von definierten Sicherheitskonzepten des Herstellers und vorgesehenen Produkteigenschaften.

Im industriellen Umfeld spielen daher ethische Aspekte eher eine untergeordnete Rolle. Ein unkontrollierter Zustand einer Maschine, Drohne oder eines Roboters ist auch vom Hersteller nicht gewünscht, der die Kontrolle über sein Produkt bewahren möchte und haftbar ist. Ein Frankensteinsches Horrorszenario einer unzähmbaren verselbständigten Maschine scheint daher abwegig zu sein. Somit werden automatisch Grenzen gesetzt und gleichzeitig auch Freiräume für einen sinnvollen Umgang mit der Technologie geschaffen.

Gesetzlicher und ethischer Rahmen erforderlich

Ein gesetzlicher Rahmen sowie Normen und Standards müssen noch geschaffen werden. Die High Level Expert Group on AI der Europäischen Kommission will in 2019 eine europäische Strategie für KI erarbeiten und ethische Richtlinien zu den Themen Fairness, Sicherheit, Transparenz, Arbeitswelt der Zukunft und Demokratie vorschlagen. Wie ein Wertesystem für künstliche Intelligenz aussehen kann, damit beschäftigt sich die Open Community for Ethics in Autonomous and Intelligent Systems, die sich aus zahlreichen internationalen Verbänden und Standardisierungs-Organisationen zusammensetzt. Gemeinsam mit Experten aus Philosophie, Theologie, Psychologie und Soziologie soll ein Katalog an Anforderungen entstehen, die einer ethischen künstlichen Intelligenz beizubringen sind. In eine ähnliche Richtung zielt die Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses (EWSA) im Mai 2017 zu den ‘Auswirkungen der künstlichen Intelligenz auf den (digitalen) Binnenmarkt sowie Produktion, Verbrauch, Beschäftigung und Gesellschaft’. Darin fordert der Ausschuss explizit einen Verhaltenskodex für die Entwicklung, den Einsatz und die Nutzung von künstlicher Intelligenz.

Einen solchen haben manche Unternehmen bereits definiert, setzen als Kontrollinstanz Ethikkommissionen aus externen Fachleuten ein und führen ethische Trainings für die mit dem Thema befassten Mitarbeiter durch. Dabei steht der ethisch verantwortungsvolle Umgang mit Daten im Mittelpunkt. Unter ethischem Gesichtspunkt ist die Auswirkung von KI-Systemen auf die Würde, Sicherheit, Selbständigkeit und Entscheidungsfreiheit der Menschen zu regeln. So kann eine KI-basierte Gesichtserkennung eine Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit darstellen. Der Datenschutz ist hier besonders wichtig, erst recht vor dem Hintergrund, dass die Daten dazu verwendet werden könnten, Entscheidungen von Menschen zu beeinflussen oder deren Verhalten gar zu manipulieren, indem neue (Un-) Wahrheiten postuliert werden. Ausschlaggebend ist, dass die zugrunde liegenden Daten korrekt sind und keine Vorurteile und Präferenzen enthalten. Unter Sicherheitsaspekten müssen solche Systeme zuverlässig sein und in jeder Situation sicher funktionieren. Bedeutsam für die allgemeine Akzeptanz sind außerdem Transparenz und Nachvollziehbarkeit der Entscheidungen von KI-Systemen. Deren Funktionsweise, Handeln und Entscheidungen sollte jederzeit einsehbar und kontrollierbar sein.

Die Systeme lernen auch im Betrieb dazu und nicht immer ist nachvollziehbar, wie ein bestimmtes Lernergebnis entstanden ist. Ist das Resultat einer Datenverarbeitung nicht mehr vorhersagbar, kann es sein, dass das Ergebnis einen Schaden bewirkt, gegen Gesetze oder den Datenschutz verstößt. Dazu kommen die Anforderungen nach Fairness und Diskriminierungsfreiheit von KI-Entscheidungen. Diese könnten beispielsweise Personen diskriminieren, ohne dass die Entwickler der Systeme dies beabsichtigt haben. Daher sollten präventive Risikobewertungen durchgeführt und eine ständige und umfassende Evaluierung von Algorithmik-basierten Anwendungen durch neutrale Dritte sichergestellt werden, ohne zugrunde liegende Codes und Algorithmen offenzulegen.

Das könnte Sie auch interessieren

Jeder zweite Betrieb investiert laut einer Betriebsräte-Befragung der IG Metall zu wenig am Standort. Demnach verfügen rund 48 Prozent der Unternehmen über eine Transformationsstrategie. Zudem sehen die Betriebsräte ein erhöhtes Risiko für Verlagerungen.‣ weiterlesen

Der Nutzen neuer Technologien kommt nur dann zum Tragen, wenn diese von den Menschen mindestens toleriert, besser aber gesamtgesellschaftlich angenommen werden. Dafür braucht es Dialog und Möglichkeiten für gemeinsame Gestaltung. Welche Kommunikationsformate sich hierfür eignen und welche Wirkung sie bei den Beteiligten erzielen, das hat das Acatech-Projekt 'Technologischen Wandel gestalten' bei den Themen elektronische Patientenakte, digitale Verwaltung und Katastrophenschutz untersucht. Jetzt hat das Projektteam die Ergebnisse vorgelegt.‣ weiterlesen

Der D21-Digital-Index erhebt jährlich, wie digital die deutsche Gesellschaft ist und wie resilient sie für die Zukunft aufgestellt ist. Deutlich wird auch in diesem Jahr: Der Großteil der Menschen in Deutschland hat an der digitalen Welt teil und kann ihre Möglichkeiten selbstbestimmt für sich nutzen. Der Index-Wert liegt bei 58 von 100 Punkten (+1 zum Vorjahr).‣ weiterlesen

Genauso wie Menschen haben auch große KI-Sprachmodelle Merkmale wie Moral- und Wertevorstellungen. Diese sind jedoch nicht immer transparent. Forschende der Universität Mannheim und des Gesis – Leibniz-Instituts für Sozialwissenschaften haben untersucht, wie die Eigenschaften der Sprachmodelle sichtbar werden können und welche Folgen diese Voreingenommenheit für die Gesellschaft haben könnte.‣ weiterlesen

Aus dem Alltag der Verbraucher sind vernetzte Geräte nicht mehr wegzudenken: Zwei Drittel halten sie laut einer Untersuchung von Capgemini sogar für unverzichtbar und mehr als ein Drittel plant, im nächsten Jahr weitere vernetzte Geräte anzuschaffen. Dabei werden Produkte für Gesundheit und Haussicherheit stärksten nachgefragt.‣ weiterlesen

Im privaten Umfeld wird Augmented Reality laut einer Bitkom-Befragung vor allem im Gaming-Bereich genutzt - vornehmlich auf Smartphones und Tablets. Rund die Hälfte der Studienteilnehmer kann sich jedoch vorstellen, eine AR-Brille zu nutzen.‣ weiterlesen

Texte, die von einer künstlichen Intelligenz geschrieben wurden, sind leicht zu erkennen? Ganz so einfach scheint es nicht zu sein, wie ein gemeinsames Forschungsteam der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz herausgefunden hat.‣ weiterlesen

Nach langen Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt. „Künstliche Intelligenz verändert schon heute unseren Alltag. Und das ist erst der Anfang. Klug und breit eingesetzt, verspricht KI enorme Vorteile für unsere Wirtschaft und Gesellschaft. Daher begrüße ich die heutige politische Einigung des Europäischen Parlaments und des Rates über den Rechtsakt zur Künstlichen Intelligenz sehr“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission.‣ weiterlesen

51 Prozent der Verbraucher weltweit verfolgen die neuesten Trends im Bereich generativer KI und haben entsprechende Tools auch bereits ausprobiert. Das geht aus einem Report des Capgemini Research Institute hervor. Die Studie analysiert, wie Verbraucher weltweit generative KI nutzen. Die Akzeptanz der ersten Generation generativer KI-Tools, so die Ergebnisse, ist über alle untersuchten Länder und Altersgruppen hinweg ähnlich hoch, einschließlich der Generation der Babyboomer.‣ weiterlesen

Neun von zehn Firmen halten CO2-Neutralität zwar für wichtig. Doch über 50 Prozent der befragten Unternehmen verschiebt dafür nötige Investitionen ins nächste Jahrzehnt, haben die Marktforscher von PAC in einer Umfrage unter 150 Entscheidern in Fertigung und Logistik ermittelt.‣ weiterlesen

Laut einer Umfrage von Reichelt Elektronik investieren Unternehmen im industriellen Sektor in Energiesparmaßnahmen, sehen sich aber auch unter großem Druck. 45 Prozent ziehen energieintensive Prozesse zumindest teilweise ins Ausland ab.‣ weiterlesen