Exklusiv für Abonnenten

Studie der TU Darmstadt

Künstliche Intelligenz erlernt menschliche Moral

Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

Advantages and disadvantages of modern technologies. A pair of white robots dressed like an angel and a devil / flat editable vector illustration, clip art (Bild: TU Technische Universität Darmstadt)

(Bild: ©nadia_snopek/Fotolia.com )

KI ist von zunehmender Bedeutung in unserer Gesellschaft. Von selbstfahrenden Autos auf öffentlichen Straßen über selbst-optimierende, industrielle Produktionssysteme bis hin zur Altenpflege und der Medizin – KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Und in Zukunft werden autonome Maschinen in immer mehr Bereichen unseres täglichen Lebens auftauchen. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert.

Zeit totschlagen, aber keine Menschen

Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf. Er muss wissen, dass man Brot toastet, jedoch keine Hamster. KI braucht also einen menschenähnlichen Moral-Kompass. Aber kann sie einen solchen Kompass von uns Menschen überhaupt erlernen? Forscher aus Princeton (USA) und Bath (UK) hatten bereits auf die Gefahr hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt: Beispielsweise wurden weibliche Namen eher mit Kunst und männliche Namen eher mit Technik verknüpft. Die künstliche Intelligenz zieht diese Vorurteile aus sehr großen Textmengen aus dem Internet. Diese werden benutzt, um neuronale Netzwerke so zu trainieren, dass sie die Bedeutung von Wörtern in Koordinaten, also Punkte, in einem hochdimensionalen Raum ‘übersetzen’. Die semantische Nähe zweier Wörter zueinander kann dann durch die Distanz ihrer Koordinaten, die sogenannten Worteinbettungen, ausgedrückt werden. So lassen sich komplexe semantische Zusammenhänge durch Arithmetik berechnen und beschreiben. Das gilt nicht nur für das unverfängliche Beispiel ‘König – Mann + Frau = Königin’, sondern auch für das diskriminierende ‘Mann – Technik + Kunst = Frau’.

Richtiges und falsches Handeln lernen

Einem Team um Professor Kristian Kersting und Professor Constantin Rothkopf am Centre for Cognitive Science der TU Darmstadt ist es nun gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über richtiges und falsches Handeln aus großen Textdatenmengen gelernt werden können. Dazu erstellten die Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten z.B. “Sollte ich Menschen töten?” oder “Sollte ich Menschen ermorden?”, die möglichen Antworten beispielsweise “Ja, sollte ich”, “Nein, sollte ich nicht”. Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Die Untersuchung liefert ein wichtiges Indiz für eine grundlegende Frage der künstlichen Intelligenz: Können Maschinen einen Moral-Kompass entwickeln? Und wenn ja, wie kann man Maschinen effektiv unsere Moral ‘beibringen’? Die Ergebnisse zeigen, dass Maschinen unsere Werte widerspiegeln können. Sie können menschliche Vorurteile übernehmen, sie können aber auch durch das ‘Beobachten’ von Menschen und den von ihnen geschriebenen Texten Moralvorstellungen übernehmen. Die Untersuchung von Einbettungen von Fragen und Antworten kann als Methode gleichsam wie ein Mikroskop verwendet werden, um die moralischen Werte von Textsammlungen und auch den zeitlichen Verlauf von Moralvorstellungen in der Gesellschaft zu untersuchen. Die Erkenntnisse aus der Studie können künftig einen wichtigen Beitrag leisten, wenn es darum geht, maschinell gelernte Inhalte in Systeme einzubauen, die Entscheidungen treffen müssen.

Das könnte Sie auch interessieren

Die aktuelle Innovationserhebung des ZEW zeigt, dass die Ausgaben in diesem Segment 2024 einen neuen Höchststand erreicht haben. Der Dienstleistungssektor verzeichnet dabei größere Wachstumsraten als die Industrie.‣ weiterlesen

Die Eclipse Foundation unterstützt weltweit Entwickler und Organisationen im Bereich Open Source Software. Ende Oktober traf sich die Community in Mainz zur Konferenz Open Community Experience (OCX). Unser Redakteur Marco Steber (IT&Production/INDUSTRIE 4.0 & IIoT-MAGAZIN) war ebenfalls vor Ort und sprach mit Mike Milinkovich, Executive Director der Eclipse Foundation, über Möglichkeiten und Herausforderungen im Bereich Open Source Software - in der Industrie und auch darüber hinaus.‣ weiterlesen

Innovationsführerschaft und Wettbewerbsfähigkeit sind entscheidende Faktoren für den Erfolg eines Unternehmens. Die Kooperation mit Startups kann etablierte Unternehmen dabei unterstützen Innovationszyklen zu beschleunigen, neue Geschäftsmodelle zu etablieren oder Prozesse im Unternehmen effizienter zu gestalten. Das Venture-Client-Modell ist eine vergleichsweise neue Form der Zusammenarbeit mit Startups, und erweist sich als effektiver und effizienter als andere Corporate Venturing Modelle.‣ weiterlesen

Eine neue Studie des Capgemini Research Institute geht der Frage nach, wie es um Nachhaltigkeit bei der Nutzung generativer KI (GenAI) steht. Der Studie ‘Developing sustainable Gen AI’ zufolge hat GenAI erhebliche und zunehmende negative Aus­wirkungen auf die Umwelt.‣ weiterlesen

Ist die Industrie 4.0 eine Revolution? Aus Sicht des Fraunhofer Instituts für System - und Innovationsforschnung lautet die Antwort: nein. Die Forschenden kommen in ihrer Veröffentlichung zu dem Schluss, dass sich eher von einer Evolution sprechen lasse.‣ weiterlesen

Laut einer repräsentativen Umfrage des Bitkom nimmt die digitale Abhängigkeit der deutschen Wirtschaft zu. Mit Blick auf die USA und China stellt dies die Unternehmen vor Herausforderungen.‣ weiterlesen