Gesellschaftliche Aspekte von künstlicher Intelligenz

Automatisierung des Denkens –
Chancen und Risiken

Politik, Wissenschaft und Wirtschaft investieren weltweit Milliarden in die Weiterentwicklung des Einsatzes von künstlicher Intelligenz (KI) in unterschiedlichsten gesellschaftlichen Bereichen. Gleichzeitig versuchen sie, Rahmenbedingungen durch Gesetze, Normen und ethische Leitlinien für einen sinnvollen Umgang mit der Technologie zu schaffen und den gesellschaftlichen Nutzen hervorzuheben, um Vorbehalte in der Bevölkerung zu verringern und Akzeptanz zu schaffen. Wie weit ist die Technologie heute und was steht uns in naher Zukunft noch bevor? Tritt der Mensch seine Entscheidungshoheit mehr und mehr an Maschinen ab, die Entscheidungen teils schneller aber durch Hinzulernen veränderlich treffen?

 (Bild: Silicon Software GmbH)

(Bild: Silicon Software GmbH)

Künstliche Intelligenz umfasst unterschiedliche Technologien: Algorithmen, die über ein höheres, das heißt menschlicheres Denk- und Begriffsvermögen verfügen durch Nachahmung von menschlichen Denkprozessen und der synaptischen Verbindungen im Gehirn; maschinelles Lernen über Algorithmen, die fortlaufend und ohne weiteres Eingreifen des Menschen lernen, Aufgaben zu bewältigen; die Zusammenarbeit zwischen Mensch und Maschine sowie in Roboter eingebaute KI-Systeme. Unternehmen, die auf KI setzen, versprechen sich mehr Umsatz. Die Forschung und Entwicklung beschäftigt sich schwerpunktmäßig mit der Automatisierung menschlichen intelligenten Verhaltens wie Denken, Wissensverarbeitung, Planung, Kommunikation und Wahrnehmung – bis hin zu Systemen, die jede intellektuelle Aufgabe bewältigen, zu der Menschen fähig sind. Diese Idee einer menschenähnlichen Intelligenz von Maschinen, Geräten oder Robotern scheint noch in der weiten Zukunft zu liegen, ist daher spekulativ und kann derzeit kaum als Basis für die Bewertung ethischer und gesellschaftlicher Aspekte dienen. Denn Maschinen lernen nur aus der Vergangenheit und sind nicht imstande, sich die Zukunft vorzustellen. Von Verstehen und Bewusstsein sind intelligente Systeme noch weit entfernt.

Menschliche Fähigkeiten wie Flexibilität, Kreativität, emotionale Intelligenz und kritisches Urteilsvermögen sind Maschinen (noch) fremd. Bis künstliche Intelligenz menschliches Niveau erreicht kann es noch Jahrzehnte bis ein Jahrhundert lang dauern, schätzen Wissenschaftler. Somit stehen derzeit die Kollaboration von Mensch und Maschine und die Synergie der jeweiligen Stärken im Mittelpunkt des Technologieeinsatzes, auch wenn die Forschung sich mit weitergehenden Zukunftsszenarien beschäftigt. Wie werden Mensch und Maschine künftig zusammenarbeiten? Unterstützt KI die Entscheidungsfindung oder trifft sie selbst autonom Entscheidungen? Das Szenario für die kommenden Jahre lautet am wahrscheinlichsten: KI-Systeme und menschliche Experten treffen gemeinsam bessere Entscheidungen als jeweils für sich allein – wobei der Mensch in manchen Fällen gänzlich zurücktritt. So werden autonome Schiffe Gefahren selbstständig ausweichen und komplexe Andockmanöver ohne Kapitän auf der Brücke bewältigen. Mit Sensoren und Computertechnologie ausgestattete intelligente Roboter werden Sensordaten nicht nur lesen, sondern sie interpretieren und ihre Aktionen entsprechend dieser Interpretation modifizieren. Daher wird künstliche Intelligenz heutzutage im Wesentlichen in spezifischen Anwendungen als maschinelles Lernen eingesetzt. Hierbei wird eine Maschine mit einem gewissen Grad an Intelligenz und Autonomie ausgestattet durch Anlernen von Fähigkeiten anstatt wie bisher durch Programmieren.

Ziel beim maschinellen Lernen ist es, Daten aus verschiedenen Quellen intelligent miteinander zu verknüpfen, relevante Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Vorhersagen zu treffen. Im industriellen Umfeld beispielsweise ermöglicht es die Vorhersage bestimmter Situationen wie Maschinenausfälle (vorausschauende Wartung) oder die Unterstützung des Maschinenbedieners durch Expertensysteme und somit die Optimierung betrieblicher Abläufe. KI-Anwendungen wie virtuelle Assistenten, Spracherkennung, selbstfahrende Autos und vieles mehr sind in aller Munde. Die Chancen und Vorteile der KI sind – allen Vorbehalten zum Trotz – eher unstrittig. Doch wie lassen sich bei einer solch sinnvollen Technologie zu viel Maschinenautonomie oder gar Missbrauch (von Daten und Entscheidungen) vermeiden bzw. ausschließen und ethische Maßstäbe, Sicherheit sowie Schutz der Privatsphäre gewährleisten?

Hand pointing at glowing digital brain. Artificial intelligence and future concept. 3D Rendering (Bild: Silicon Software GmbH)

Hand pointing at glowing digital brain. Artificial intelligence and future concept. 3D Rendering (Bild: Silicon Software GmbH)

Transparenz vs. Datenschutz

Intransparente Blackbox-Algorithmen und automatisierte Entscheidungsfindung schrecken viele Menschen ab. Sie empfinden eine Ohnmacht gegenüber Technologieentscheidungen, die sie unmittelbar betreffen oder betroffen machen. Nachrichten über den Einsatz autonomer Waffensysteme, undurchsichtige Überwachung von Menschen, Schufa-Ratings oder über fehlerhaftes autonomes Fahren sind Negativbeispiele – umso mehr wenn Fehler gehäuft auftreten wie bei der versuchsweisen massenhaften Gesichtserkennung an Bahnhöfen. Oder wenn Einkäufe für Freunde bei Amazon das eigene Profil ändern, was dann nicht mehr zu korrigieren ist. Dagegen steht eine Fülle sinnvoller Einsatzszenarien wie etwa in der Medizin, wo ein angelerntes intelligentes System bessere Ergebnisse beim Hautscreening lieferte als die meisten der 58 geladenen Hautärzte. Genauso bahnbrechend ist die Entwicklung von `Radiomics´. Dabei werden radiologische Daten mit molekularbiologischen Daten und weiteren klinischen Kennzeichen in Beziehung gesetzt und über Algorithmen interpretiert. Künstliche Intelligenz ist in der Medizin eine wichtige unterstützende Hilfe für die Diagnostik, um z.B. Mikrometastasen oder schwere Krankheiten wie Psychosen, Depressionen, Krebs und Alzheimer noch im Anfangsstadium viel früher zu erkennen. Bislang bildeten Algorithmen die Basis für Daten, die zu Entscheidungen führten. Mit künstlicher Intelligenz finden Algorithmen aus komplexen Datenmengen Muster als Basis für Entscheidungen und treffen Vorhersagen, die mit einer gewissen Wahrscheinlichkeit eintreten. Algorithmen können neue Kausalitäten finden, die Menschen bislang verborgen waren.

Bereits heute entscheiden Algorithmen, ob man am Automaten sein Geld ausbezahlt bekommt, erkennen Gesichter in den sozialen Medien und bearbeiten Aufgaben auf dem Smartphone. Wie steht es hier um den Konsumentenschutz? Immer häufiger werden private Daten und Merkmale zur Datenverarbeitung herangezogen und miteinander verknüpft. Die EU-Datenschutzgrundverordnung schreibt Transparenz bei Entscheidungen vor. Bei der Frage, warum ein Kredit abgelehnt wurde, reicht daher als Antwort “Die Maschine hat so entschieden” nicht aus. Grundsätzlich stellt sich auch die Haftungsfrage, wenn automatisierte Entscheidungen Menschen oder Gegenständen einen Schaden zufügen. In solchen Fällen ist es notwendig, dass KI-Systemen keine Rechtspersönlichkeit zugesprochen wird und die Hersteller haftbar bleiben. Der Grad an Autonomie von künstlicher Intelligenz ist prinzipiell durch den Verwendungszweck, die vom Entwickler definierten Grenzen, gesetzliche und betriebliche Anforderungen, physikalische Prozesse und technische Normen begrenzt. Insbesondere in physische Produkte eingebettete Funktionalität läuft nur im Rahmen von definierten Sicherheitskonzepten des Herstellers und vorgesehenen Produkteigenschaften.

Im industriellen Umfeld spielen daher ethische Aspekte eher eine untergeordnete Rolle. Ein unkontrollierter Zustand einer Maschine, Drohne oder eines Roboters ist auch vom Hersteller nicht gewünscht, der die Kontrolle über sein Produkt bewahren möchte und haftbar ist. Ein Frankensteinsches Horrorszenario einer unzähmbaren verselbständigten Maschine scheint daher abwegig zu sein. Somit werden automatisch Grenzen gesetzt und gleichzeitig auch Freiräume für einen sinnvollen Umgang mit der Technologie geschaffen.

Gesetzlicher und ethischer Rahmen erforderlich

Ein gesetzlicher Rahmen sowie Normen und Standards müssen noch geschaffen werden. Die High Level Expert Group on AI der Europäischen Kommission will in 2019 eine europäische Strategie für KI erarbeiten und ethische Richtlinien zu den Themen Fairness, Sicherheit, Transparenz, Arbeitswelt der Zukunft und Demokratie vorschlagen. Wie ein Wertesystem für künstliche Intelligenz aussehen kann, damit beschäftigt sich die Open Community for Ethics in Autonomous and Intelligent Systems, die sich aus zahlreichen internationalen Verbänden und Standardisierungs-Organisationen zusammensetzt. Gemeinsam mit Experten aus Philosophie, Theologie, Psychologie und Soziologie soll ein Katalog an Anforderungen entstehen, die einer ethischen künstlichen Intelligenz beizubringen sind. In eine ähnliche Richtung zielt die Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses (EWSA) im Mai 2017 zu den ‘Auswirkungen der künstlichen Intelligenz auf den (digitalen) Binnenmarkt sowie Produktion, Verbrauch, Beschäftigung und Gesellschaft’. Darin fordert der Ausschuss explizit einen Verhaltenskodex für die Entwicklung, den Einsatz und die Nutzung von künstlicher Intelligenz.

Einen solchen haben manche Unternehmen bereits definiert, setzen als Kontrollinstanz Ethikkommissionen aus externen Fachleuten ein und führen ethische Trainings für die mit dem Thema befassten Mitarbeiter durch. Dabei steht der ethisch verantwortungsvolle Umgang mit Daten im Mittelpunkt. Unter ethischem Gesichtspunkt ist die Auswirkung von KI-Systemen auf die Würde, Sicherheit, Selbständigkeit und Entscheidungsfreiheit der Menschen zu regeln. So kann eine KI-basierte Gesichtserkennung eine Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit darstellen. Der Datenschutz ist hier besonders wichtig, erst recht vor dem Hintergrund, dass die Daten dazu verwendet werden könnten, Entscheidungen von Menschen zu beeinflussen oder deren Verhalten gar zu manipulieren, indem neue (Un-) Wahrheiten postuliert werden. Ausschlaggebend ist, dass die zugrunde liegenden Daten korrekt sind und keine Vorurteile und Präferenzen enthalten. Unter Sicherheitsaspekten müssen solche Systeme zuverlässig sein und in jeder Situation sicher funktionieren. Bedeutsam für die allgemeine Akzeptanz sind außerdem Transparenz und Nachvollziehbarkeit der Entscheidungen von KI-Systemen. Deren Funktionsweise, Handeln und Entscheidungen sollte jederzeit einsehbar und kontrollierbar sein.

Die Systeme lernen auch im Betrieb dazu und nicht immer ist nachvollziehbar, wie ein bestimmtes Lernergebnis entstanden ist. Ist das Resultat einer Datenverarbeitung nicht mehr vorhersagbar, kann es sein, dass das Ergebnis einen Schaden bewirkt, gegen Gesetze oder den Datenschutz verstößt. Dazu kommen die Anforderungen nach Fairness und Diskriminierungsfreiheit von KI-Entscheidungen. Diese könnten beispielsweise Personen diskriminieren, ohne dass die Entwickler der Systeme dies beabsichtigt haben. Daher sollten präventive Risikobewertungen durchgeführt und eine ständige und umfassende Evaluierung von Algorithmik-basierten Anwendungen durch neutrale Dritte sichergestellt werden, ohne zugrunde liegende Codes und Algorithmen offenzulegen.

Das könnte Sie auch interessieren

Digitale Tools bringen den Aufbau einer Circular Economy auf Touren, wenn sie systemisch eingesetzt werden. Wie das gelingen kann, zeigt die Studie 'Digitale Enabler der Kreislaufwirtschaft' anhand von drei sehr unterschiedlichen Produkten: T-Shirts, Waschmaschinen und Einfamilienhäusern. Die Studie der Deutschen Akademie der Technikwissenschaften (Acatech) arbeitet heraus, welche digitalen Technologien und Anwendungen Wertschöpfungsketten zirkulär gestalten können - und wie die einzelnen Enabler im Zusammenspiel ein erweitertes Potenzial entfalten.‣ weiterlesen

Die universitäre Forschung ist laut einer Untersuchung des EPA für 10,2 Prozent aller Patentanmeldungen in Europa verantwortlich. Führende Länder sind hier Deutschland, Frankreich, das Vereinigte Königreich und Italien. Die Hälfte aller universitären Patentanmeldungen stammt von einer kleinen Gruppe europäischer Hochschulen.‣ weiterlesen

In einer großangelegten empirischen KI-Studie mit Fokus auf möglichen gesellschaftlichen und psychischen Auswirkungen in Deutschland hat das Institut Allensbach untersucht, wie es um das Verhältnis Mensch und digitale Assistenten bestellt ist. Jeder fünfte der befragten Nutzer vergisst demnach schon mal, dass er mit einer Maschine spricht.‣ weiterlesen

Sollte Programmieren bzw. Informatik ebenso in der Schule gelehrt werden wie Mathe oder Deutsch? Ja, meint die weit überwiegende Mehrheit der Lehrerinnen und Lehrer in Deutschland.‣ weiterlesen

Die Covid-19-Pandemie hat die Digitalisierung in Deutschland nicht vorangebracht, sondern die technologische Entwicklung sogar zurückgeworfen. Dies geht aus einer gemeinsamen Studie des ZEW Mannheim, des Instituts zur Zukunft der Arbeit (IZA), des Instituts für Arbeitsmarkt- und Berufsforschung (IAB), dem Luxembourg Institute of Socio-Economic Research (LISER) sowie weiteren Forschungseinrichtungen auf Basis einer repräsentativen Befragung von rund 3.000 Betrieben in Deutschland hervor.‣ weiterlesen

Beim Social Engineering werden Mitarbeiterinnen und Mitarbeiter manipuliert, damit sie vertrauliche Daten preisgeben. Dies kann etwa ein vermeintlicher Anrufer aus der IT-Abteilung sein, der das Passwort für ein PC-Update braucht oder eine E-Mail aus der Vorstandsetage mit Link zu einer Website. ‣ weiterlesen