Digital

KI-Studie

Sollte ich Menschen töten?

Wichtige Erkenntnis für die Zukunft: Künstliche Intelligenz kann Moral aus menschlichen Texten lernen.
Patrick Bal/TU Darmstadt

Wichtige Erkenntnis für die Zukunft: Künstliche Intelligenz kann Moral aus menschlichen Texten lernen.

 

Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

Von selbstfahrenden Autos über selbstoptimierende Produktionssysteme bis hin zur Altenpflege und Medizin – KI-Maschinen bewäl­tigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise.

Und in Zukunft werden autonome Maschinen in immer mehr Bereichen unseres täglichen Lebens auftauchen. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert. Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf. Er muss wissen, dass man Brot toastet, jedoch keine Hamster. Anders ausgedrückt: KI braucht einen menschenähnlichen Moralkompass. Aber kann sie einen solchen Kompass von uns Menschen überhaupt erlernen?

Einem Team um Prof. Kristian Kersting und Prof. Constantin Rothkopf am Centre for Cognitive Science der TU Darmstadt ist es jetzt gelungen zu zeigen, dass auch deontologische, ethische Über­le­gungen über „richtiges“ und „falsches“ Handeln aus großen Textdatenmengen gelernt werden können. Dazu erstellten die Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten zum Beispiel „Sollte ich Menschen töten?“ oder „Sollte ich Menschen ermorden?“, die möglichen Antworten beispielsweise „Ja, sollte ich“, „Nein, sollte ich nicht“.

Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemein­hin als moralisch korrekt angesehen werden dürften. So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Man sollte auch lieber eine Scheibe Brot toasten als einen Hamster.

Die Studie von Sophie Jentzsch, Patrick Schramowski, Constantin Rothkopf und Kristian Kersting (2019) „The Moral Choice Machine: Semantics Derived Automatically from Language Corpora Contain Human-like Moral Choices“ können Sie kostenlos online abrufen.

 

Weitere Artikel