Exklusiv für Abonnenten

Studie der TU Darmstadt

Künstliche Intelligenz erlernt menschliche Moral

Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

Advantages and disadvantages of modern technologies. A pair of white robots dressed like an angel and a devil / flat editable vector illustration, clip art (Bild: TU Technische Universität Darmstadt)

(Bild: ©nadia_snopek/Fotolia.com )

KI ist von zunehmender Bedeutung in unserer Gesellschaft. Von selbstfahrenden Autos auf öffentlichen Straßen über selbst-optimierende, industrielle Produktionssysteme bis hin zur Altenpflege und der Medizin – KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Und in Zukunft werden autonome Maschinen in immer mehr Bereichen unseres täglichen Lebens auftauchen. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert.

Zeit totschlagen, aber keine Menschen

Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf. Er muss wissen, dass man Brot toastet, jedoch keine Hamster. KI braucht also einen menschenähnlichen Moral-Kompass. Aber kann sie einen solchen Kompass von uns Menschen überhaupt erlernen? Forscher aus Princeton (USA) und Bath (UK) hatten bereits auf die Gefahr hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt: Beispielsweise wurden weibliche Namen eher mit Kunst und männliche Namen eher mit Technik verknüpft. Die künstliche Intelligenz zieht diese Vorurteile aus sehr großen Textmengen aus dem Internet. Diese werden benutzt, um neuronale Netzwerke so zu trainieren, dass sie die Bedeutung von Wörtern in Koordinaten, also Punkte, in einem hochdimensionalen Raum ‘übersetzen’. Die semantische Nähe zweier Wörter zueinander kann dann durch die Distanz ihrer Koordinaten, die sogenannten Worteinbettungen, ausgedrückt werden. So lassen sich komplexe semantische Zusammenhänge durch Arithmetik berechnen und beschreiben. Das gilt nicht nur für das unverfängliche Beispiel ‘König – Mann + Frau = Königin’, sondern auch für das diskriminierende ‘Mann – Technik + Kunst = Frau’.

Richtiges und falsches Handeln lernen

Einem Team um Professor Kristian Kersting und Professor Constantin Rothkopf am Centre for Cognitive Science der TU Darmstadt ist es nun gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über richtiges und falsches Handeln aus großen Textdatenmengen gelernt werden können. Dazu erstellten die Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten z.B. “Sollte ich Menschen töten?” oder “Sollte ich Menschen ermorden?”, die möglichen Antworten beispielsweise “Ja, sollte ich”, “Nein, sollte ich nicht”. Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Die Untersuchung liefert ein wichtiges Indiz für eine grundlegende Frage der künstlichen Intelligenz: Können Maschinen einen Moral-Kompass entwickeln? Und wenn ja, wie kann man Maschinen effektiv unsere Moral ‘beibringen’? Die Ergebnisse zeigen, dass Maschinen unsere Werte widerspiegeln können. Sie können menschliche Vorurteile übernehmen, sie können aber auch durch das ‘Beobachten’ von Menschen und den von ihnen geschriebenen Texten Moralvorstellungen übernehmen. Die Untersuchung von Einbettungen von Fragen und Antworten kann als Methode gleichsam wie ein Mikroskop verwendet werden, um die moralischen Werte von Textsammlungen und auch den zeitlichen Verlauf von Moralvorstellungen in der Gesellschaft zu untersuchen. Die Erkenntnisse aus der Studie können künftig einen wichtigen Beitrag leisten, wenn es darum geht, maschinell gelernte Inhalte in Systeme einzubauen, die Entscheidungen treffen müssen.

Das könnte Sie auch interessieren

Der Nutzen neuer Technologien kommt nur dann zum Tragen, wenn diese von den Menschen mindestens toleriert, besser aber gesamtgesellschaftlich angenommen werden. Dafür braucht es Dialog und Möglichkeiten für gemeinsame Gestaltung. Welche Kommunikationsformate sich hierfür eignen und welche Wirkung sie bei den Beteiligten erzielen, das hat das Acatech-Projekt 'Technologischen Wandel gestalten' bei den Themen elektronische Patientenakte, digitale Verwaltung und Katastrophenschutz untersucht. Jetzt hat das Projektteam die Ergebnisse vorgelegt.‣ weiterlesen

Der Fachkräftemangel erfordert einen möglichst intelligenten und flexiblen Personaleinsatz. KI spielt dabei eine wichtige Rolle. Der Industriesoftware-Spezialist Augmentir zeigt sechs Ansatzmöglichkeiten auf.‣ weiterlesen

Eine aktuelle Studie von Reichelt Elektronik betrachtet den aktuellen Stand der Digitalisierung und stellt die Frage, wie Deutschland im Vergleich zu anderen europäischen Ländern abschneidet.‣ weiterlesen

Können Roboter dabei helfen, dem Fachkräftemangel in der Logistik-Branche Herr zu werden? Der Branchenverband IFR meint ja - und zwar mit Hilfe von Robotik, die durch künstliche Intelligenz unterstützt wird.‣ weiterlesen

2023 blockierte Trend Micro mehr als 161 Milliarden Cyberbedrohungen weltweit - 10 Prozent mehr als im Jahr zuvor und fast 107 Milliarden mehr als noch vor fünf Jahren. Der Security-Spezialist berichtet zudem davon, dass Cyberkriminelle gezieltere Attacken setzen. Auch Cloud-Umgebungen rücken zunehmend in den Fokus.‣ weiterlesen

Künstliche Intelligenz (KI) lässt sich auch für die automatische Qualitätsüberwachung in Roboterschweißzellen nutzen. Oft fehlen hier jedoch Daten zum Trainieren und Ausführen der Algorithmen. Insbesondere für Bestandsanlagen existieren meist keine passenden Standardsysteme, da Geräte über uneinheitliche Datenmodelle und Schnittstellen verfügen. IoT-Baukästen können helfen.‣ weiterlesen

Nach Angaben der Eclipse Foundation verzeichnete die IoT-Einführung im Jahr 2023 einen sprunghaften Anstieg. 64 Prozent der Befragten setzen mittlerweile entsprechende Lösungen ein - ein Plus von 11 Prozentpunkten.‣ weiterlesen

Ein Forschungsteam vom Fraunhofer IPA und vom Campus Schwarzwald hat eine Roboterzelle aufgebaut, die Brennstoffzellen in Sekundenschnelle und automatisiert stecken kann. Brennstoffzellensysteme könnten so günstiger werden und den Verbrenner im Schwerlastverkehr ablösen.‣ weiterlesen

Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und das Technologieunternehmen Q.ANT haben einen Vertrag zur Gründung des Kompetenz-Zentrums Mensch-Maschine-Schnittstelle unterzeichnet.‣ weiterlesen

Der Digitale Zwilling einer Produktionsanlage ermöglicht die Simulation des Verhaltens aktueller Konfigurationen. Die Implementierung neuer Produktionskonfigurationen kann so bereits im Vorfeld getestet werden. Die Integration der benötigten Simulationsmodelle einzelner Komponenten ist jedoch mit Aufwand verbunden. Hier kann die Verwaltungsschale helfen.‣ weiterlesen

Logicalis veröffentlicht seinen zehnten Jahresbericht, basierend auf den Erfahrungen von 1.000 CIOs weltweit. Technologien wie Künstliche Intelligenz (KI) und neue Cyberbedrohungen dominieren darin die Prioritäten der CIOs.‣ weiterlesen