Wissenschaftlicher Aufruf:Moral für Maschinen

Selbstfahrendes Auto von GM

Das GM-Werksfoto zeigt den Cruise AV von General Motors. Das Auto ist selbstfahrend und hat kein Lenkrad.

(Foto: dpa/General Motor)
  • Wissenschaftler aus der ganzen Welt fordern in einem Aufsatz in Nature eine eigene Verhaltensforschung für Maschinen.
  • In der Veröffentlichung bemängeln sie, dass sich bisher vor allem Mathematiker und Ingenieure mit künstlicher Intelligenz beschäftigt haben - nicht etwa Psychologen und Soziologen.
  • Mit angestoßen hat die Debatte der Wissenschaftler Iyad Rahwan mit seiner "Moral Machine", der bisher umfassendsten Studie zu Maschinenethik. Sie stellt den Nutzer vor grundlegende Moralfragen.

Von Andrian Kreye

Wenn 23 Wissenschaftler von führenden Universitäten in Europa und Amerika - Harvard, Stanford, MIT, Max-Planck-Institut und so weiter - sowie aus Forschungsinstituten der Digitalkonzerne Google, Facebook und Microsoft im Alarmton ein neues Forschungsfeld einfordern, sollte man das sicher ernst nehmen. "Machine Behaviour", so lautet der schlichte Titel der Veröffentlichung, die an diesem Donnerstag im führenden Wissenschaftsjournal Nature erscheint. Darin wird erläutert, dass man künstliche Intelligenzen nur mit einer Verhaltensforschung für Maschinen verstehen und so programmieren könne, dass sie den Menschen dienen und nicht schaden.

Nun sind akademische Epauletten gerade in der digitalen Welt ein veraltetes Kriterium für wissenschaftliche Glaubwürdigkeit. Aufschlussreicher ist es, wenn man den Hauptautor des Aufsatzes besucht, den KI-Forscher, Ethiker, Spieltheoretiker und Kognitionsforscher Iyad Rahwan, dessen Biografie mindestens so komplex ist wie das Spektrum seiner Expertisen. Der 41-jährige Wissenschaftler, der sehr viel jünger wirkt, ist im syrischen Aleppo und in den Emiraten aufgewachsen, hat seinen Doktor in Australien gemacht und in Dubai und in Masdar City als Dozent gearbeitet. Im kommenden Sommer wird er Direktor des Forschungsbereichs "Mensch und Maschine" am Max-Planck-Institut für Bildungsforschung in Berlin.

Derzeit leitet Iyad Rahwan noch eine Forschungsgruppe am Massachusetts Institute of Technology (MIT) im amerikanischen Cambridge. Sein Büro liegt im großartigen E14-Gebäude des MIT Media Labs, das der japanische Pritzkerpreisträger Fumihiko Maki entworfen hat, einem lichtdurchfluteten Glasbau mit weiträumigen Computerlaboratorien. Man sucht sich im vierten Stock seinen Weg durch das Telmex Lab, ein Labyrinth aus Arbeitsflächen, Rechnern, Peripheriegeräten und Kabelbäumen, um die klischeegerecht Comicfiguren und Cola-Dosen drapiert sind. "Hinter dem gelben Schirm und dem orangenen Sofa" arbeitet Iyad Rahwan in einem Einzelbüro mit (Chefprivileg) Fenster und Sitzgruppe.

Das Testen der "Moral Machine" ist ein unangenehmer Höllenritt in die Abgründe der eigenen Seele

Die Arbeit, mit der er bekannt wurde und die den Ruf nach einer Verhaltensforschung für Maschinen so dringlich macht, ist seine "Moral Machine", die er hier entwickelte. Die Studie sollte herausfinden, nach welchen ethischen Grundlagen Menschen in verschiedenen Weltregionen selbstfahrende Autos programmieren würden, deren künstliche Intelligenz in bestimmten Situationen entscheiden muss, wen das Fahrzeug tötet. Passagiere, Passanten, und wenn, dann welche? Eher alte? Eher junge? Ist das Überqueren der Straße bei Rot ein implizites Todesurteil? Auch bei Kleinkindern? Das sind grundlegende Moralfragen, die jetzt geklärt werden müssen, weil sich Maschinen in Zukunft danach verhalten werden.

Wissenschaftlicher Aufruf: Das Dilemma der "Moral Machine" und die Ethik selbstfahrender Autos: Kurz vor dem Fußgängerübergang versagen die Bremsen. Wie soll die KI entscheiden? Sterben Kinder oder Alte?

Das Dilemma der "Moral Machine" und die Ethik selbstfahrender Autos: Kurz vor dem Fußgängerübergang versagen die Bremsen. Wie soll die KI entscheiden? Sterben Kinder oder Alte?

(Foto: moralmachine.mit.edu, Screenshot: SZ)

Die Studie wurde im vergangenen Herbst eigentlich abgeschlossen, aber im MIT-Museum und im Netz (moralmachine.mit.edu) kann man die Moralmaschine immer noch bedienen. Das Ding ist ein unangenehmer Höllenritt in die Abgründe der eigenen Seele, was vor allem daran liegt, dass Iyad Rahwan die Fragen gemeinsam mit dem Psychologen Azim Shariff und dem Kognitionsforscher Jean-François Bonnefon nach dem Paradigma der erzwungenen Wahl formulierte. Dieses beruht auf dem Gedankenexperiment des Weichenstellerfalls, das seit Beginn des 20. Jahrhunderts durch die Wissenschaft geistert. Es geht dabei um das Dilemma eines Weichenstellers, der den Unfall eines Zuges mit vielen Toten verhindern könnte, wenn er ihn auf ein Gleis umleitet, auf dem weniger Menschen ums Leben kämen.

Die Szenarien der "Moral Machine" gehen davon aus, dass die Bremsen eines autonom lenkenden Fahrzeuges vor einem Fußgängerüberweg versagen und nun entschieden werden muss, ob man das Fahrzeug je nach Fall in eine Personengruppe, in eine Mauer oder in eine von zwei Personengruppen lenkt. 40 Millionen Antworten von rund vier Millionen Teilnehmern aus 233 Ländern und Territorien haben Rahwan und sein Team ausgewertet. Die "Moral Machine" ist damit die bisher umfassendste Studie zu Maschinenethik.

Auf den ersten Blick sind die Ergebnisse gar nicht so überraschend. Prinzipiell riskieren die Probanden lieber weniger als mehr Leben, lieber Alte als Kinder. Es sind aber die feinen regionalen Unterschiede, die zeigen, dass es keine eindeutig universellen Werte gibt, die als Grundlage für eine Maschinenethik taugen. Die Ergebnisse sind grob in drei Weltregionen unterteilt - die westliche Welt mit Europa und Amerika, der östliche Cluster mit asiatischen und islamischen, sowie die Südregion mit lateinamerikanischen und ein paar frankofonen Ländern.

Rahwan will Daten anbieten, keine moralischen Antworten

"Die Ergebnisse decken sich weitgehend mit den vorgefassten Meinungen, die wir über verschiedene Kulturen haben", sagt Rahwan. "In Ländern mit ausgeprägtem Rechtsbewusstsein wie Deutschland überfahren die Leute eher mal jemanden, der bei Rot über die Straße geht. Kinder wollen alle schützen, nur in asiatischen Ländern mit hohem Traditionsbewusstsein und kollektivistischen Gesellschaften, wo der Respekt vor Älteren stärker ausgeprägt ist, nicht ganz so stark." In den Leistungsgesellschaften des Westens verschonen die Probanden Ärzte und Geschäftsleute eher als Obdachlose. In Südamerika werden Frauen stärker geschützt.

Es geht hier nicht um Science Fiction, sondern um die Gegenwart

Maschinenethik ist längst keine Science-Fiction mehr. Fahrzeuge im oberen Preissegment verfügen jetzt schon über halbautonome Fähigkeiten, sei es die Einparkautomatik oder den Autopiloten für Staus. Die Ergebnisse der "Moral Machine"-Studie widersprechen jetzt schon ersten Leitlinien: "Deutschland war eines der ersten Länder, das Richtlinien für selbstfahrende Fahrzeuge eingeführt hat. Diese verbieten eine Unterscheidung von Personen auf Grund ihres Geschlechts, ihres ethnischen Hintergrundes und dergleichen. Die starke Präferenz von Kindern zum Beispiel, weil man sie nicht im selben Maß für Fehler beim Überqueren einer Straße verantwortlich machen kann wie Erwachsene, widerspricht den deutschen Richtlinien."

Iyad Rahwan

Iyad Rahwan, 41, ist KI-Forscher am Massachusetts Institute of Technolgy. Ab dem Sommer wird er den Forschungsbereich "Mensch und Maschine" am Max-Planck- Institut in Berlin leiten.

(Foto: Privat)

Iyad Rahwan will nur Daten anbieten, keine moralischen Antworten. "Meine Rolle ist nicht, Gesellschaften zu raten, wie sie die Dilemmata auflösen. Als Wissenschaftler bringe ich Fakten in die Debatte ein. Mehr nicht." Aber gerade weil diese Fakten so viele moralische Fragen aufwerfen, und gerade weil das Gedankenexperiment des Weichenstellers so viele Faktoren des wirklichen Lebens außer Acht lässt, wird es nicht reichen, solche Fragen in der Theorie ohne die Praxis der technischen Entwicklungen zu wälzen. Und umgekehrt. Womit Iyad Rahwan bei der Verhaltensforschung für Maschinen angelangt ist.

Die nächste große Herausforderung der KI-Forschung ist die Politik

Prinzipiell muss man davon ausgehen, dass Maschinen eigene Verhaltensmuster entwickeln, die sich weder eindeutig programmieren noch schlüssig aus der traditionellen Verhaltensforschung ableiten lassen. "Maschinen zeigen Verhaltensweisen, die sich fundamental von denen der Menschen und Tiere unterscheiden", heißt es da. Unzählige Faktoren spielen eine Rolle: der Quellcode, die Lerneffekte künstlicher Intelligenzen, der Auftrag, die Reaktion der Menschen.

Die Dringlichkeit solcher Forschungen steht gleich in der Präambel: "Maschinen, die von künstlicher Intelligenz getrieben werden, vermitteln zunehmend unsere sozialen, kulturellen, wirtschaftlichen und politischen Interaktionen." Algorithmen steuern ja nicht nur das Verhalten von Autos. Sie verändern jetzt schon das Liebesleben von Millionen durch Dating-Apps, sie verwalten das Zuhause der Menschen genauso wie ihre Finanzen, ihren Nachrichtenfluss und die öffentliche Debatte. Maschinen werden vermehrt Kinder aufziehen und Alte pflegen. Und in den Steuerelementen autonomer Waffen werden sie in bewaffneten Konflikten darüber entscheiden, wen sie leben und sterben lassen.

Die momentane Forschung kümmere sich aber nur ad hoc um die Auswirkungen der Algorithmen auf Menschen und Gesellschaft, moniert der Nature-Aufsatz. Vor allem aber seien Menschen, die sich mit künstlicher Intelligenz beschäftigen, vor allem Mathematiker und Ingenieure, keine Verhaltensforscher, Psychologen und Soziologen. "Derzeit sind die Wissenschaftler, die das Verhalten von Maschinen untersuchen, dieselben Wissenschaftler, welche die KIs geschaffen haben. Diese konzentrieren sich aber vor allem auf die Funktionstüchtigkeit ihrer künstlichen Intelligenzen."

Leicht wird es nicht, dies zu ändern. Die meisten KIs sind Black Boxes, deren Algorithmen das Betriebsgeheimnis der Firmen sind, die sie entwickeln und verkaufen. Das kann ihre Erforschung schon mal juristisch erschweren. Dabei ist die Komplexität von Algorithmen schon diffizil genug. Da tun sich nicht nur in ethischen Einzelfragen Widersprüche auf. "Die nächste Herausforderung wird die Politik sein", sagt Iyad Rahwan. "Denn künstliche Intelligenz ist Politik."

Zur SZ-Startseite
Steven Pinker, a professor of psychology at Harvard University and the author of 10 books, at a lunch with Bill Gates, the entrepreneur turned philanthropist, in Kirkland, Wash.

SZ PlusKünstliche Intelligenz
:Was ist überhaupt Intelligenz?

Keine Angst vor allmächtigen Maschinen oder: Warum die meisten Zukunftsszenarios zu KI völlig an der Realität vorbeigehen. Ein Gastbeitrag des Kognitionsforschers Steven Pinker.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: