Wenn 23 Wissenschaftler von führenden Universitäten in Europa und Amerika - Harvard, Stanford, MIT, Max-Planck-Institut und so weiter - sowie aus Forschungsinstituten der Digitalkonzerne Google, Facebook und Microsoft im Alarmton ein neues Forschungsfeld einfordern, sollte man das sicher ernst nehmen. "Machine Behaviour", so lautet der schlichte Titel der Veröffentlichung, die an diesem Donnerstag im führenden Wissenschaftsjournal Nature erscheint. Darin wird erläutert, dass man künstliche Intelligenzen nur mit einer Verhaltensforschung für Maschinen verstehen und so programmieren könne, dass sie den Menschen dienen und nicht schaden.
Nun sind akademische Epauletten gerade in der digitalen Welt ein veraltetes Kriterium für wissenschaftliche Glaubwürdigkeit. Aufschlussreicher ist es, wenn man den Hauptautor des Aufsatzes besucht, den KI-Forscher, Ethiker, Spieltheoretiker und Kognitionsforscher Iyad Rahwan, dessen Biografie mindestens so komplex ist wie das Spektrum seiner Expertisen. Der 41-jährige Wissenschaftler, der sehr viel jünger wirkt, ist im syrischen Aleppo und in den Emiraten aufgewachsen, hat seinen Doktor in Australien gemacht und in Dubai und in Masdar City als Dozent gearbeitet. Im kommenden Sommer wird er Direktor des Forschungsbereichs "Mensch und Maschine" am Max-Planck-Institut für Bildungsforschung in Berlin.
Derzeit leitet Iyad Rahwan noch eine Forschungsgruppe am Massachusetts Institute of Technology (MIT) im amerikanischen Cambridge. Sein Büro liegt im großartigen E14-Gebäude des MIT Media Labs, das der japanische Pritzkerpreisträger Fumihiko Maki entworfen hat, einem lichtdurchfluteten Glasbau mit weiträumigen Computerlaboratorien. Man sucht sich im vierten Stock seinen Weg durch das Telmex Lab, ein Labyrinth aus Arbeitsflächen, Rechnern, Peripheriegeräten und Kabelbäumen, um die klischeegerecht Comicfiguren und Cola-Dosen drapiert sind. "Hinter dem gelben Schirm und dem orangenen Sofa" arbeitet Iyad Rahwan in einem Einzelbüro mit (Chefprivileg) Fenster und Sitzgruppe.
Das Testen der "Moral Machine" ist ein unangenehmer Höllenritt in die Abgründe der eigenen Seele
Die Arbeit, mit der er bekannt wurde und die den Ruf nach einer Verhaltensforschung für Maschinen so dringlich macht, ist seine "Moral Machine", die er hier entwickelte. Die Studie sollte herausfinden, nach welchen ethischen Grundlagen Menschen in verschiedenen Weltregionen selbstfahrende Autos programmieren würden, deren künstliche Intelligenz in bestimmten Situationen entscheiden muss, wen das Fahrzeug tötet. Passagiere, Passanten, und wenn, dann welche? Eher alte? Eher junge? Ist das Überqueren der Straße bei Rot ein implizites Todesurteil? Auch bei Kleinkindern? Das sind grundlegende Moralfragen, die jetzt geklärt werden müssen, weil sich Maschinen in Zukunft danach verhalten werden.
Das Dilemma der "Moral Machine" und die Ethik selbstfahrender Autos: Kurz vor dem Fußgängerübergang versagen die Bremsen. Wie soll die KI entscheiden? Sterben Kinder oder Alte?
(Foto: moralmachine.mit.edu, Screenshot: SZ)Die Studie wurde im vergangenen Herbst eigentlich abgeschlossen, aber im MIT-Museum und im Netz (moralmachine.mit.edu) kann man die Moralmaschine immer noch bedienen. Das Ding ist ein unangenehmer Höllenritt in die Abgründe der eigenen Seele, was vor allem daran liegt, dass Iyad Rahwan die Fragen gemeinsam mit dem Psychologen Azim Shariff und dem Kognitionsforscher Jean-François Bonnefon nach dem Paradigma der erzwungenen Wahl formulierte. Dieses beruht auf dem Gedankenexperiment des Weichenstellerfalls, das seit Beginn des 20. Jahrhunderts durch die Wissenschaft geistert. Es geht dabei um das Dilemma eines Weichenstellers, der den Unfall eines Zuges mit vielen Toten verhindern könnte, wenn er ihn auf ein Gleis umleitet, auf dem weniger Menschen ums Leben kämen.
-
Das Dilemma der "Moral Machine" und die Ethik selbstfahrender Autos: Kurz vor dem Fußgängerübergang versagen die Bremsen. Wie soll die KI entscheiden? Sterben die Alten oder die Jungen?
Bild: moralmachine.mit.edu, Screenshot: SZ -
Frau oder Mann?
Bild: moralmachine.mit.edu, Screenshot: SZ -
Fußgänger oder Mitfahrer?
Bild: moralmachine.mit.edu, Screenshot: SZ
- Wird geladen ...
Die Szenarien der "Moral Machine" gehen davon aus, dass die Bremsen eines autonom lenkenden Fahrzeuges vor einem Fußgängerüberweg versagen und nun entschieden werden muss, ob man das Fahrzeug je nach Fall in eine Personengruppe, in eine Mauer oder in eine von zwei Personengruppen lenkt. 40 Millionen Antworten von rund vier Millionen Teilnehmern aus 233 Ländern und Territorien haben Rahwan und sein Team ausgewertet. Die "Moral Machine" ist damit die bisher umfassendste Studie zu Maschinenethik.
Auf den ersten Blick sind die Ergebnisse gar nicht so überraschend. Prinzipiell riskieren die Probanden lieber weniger als mehr Leben, lieber Alte als Kinder. Es sind aber die feinen regionalen Unterschiede, die zeigen, dass es keine eindeutig universellen Werte gibt, die als Grundlage für eine Maschinenethik taugen. Die Ergebnisse sind grob in drei Weltregionen unterteilt - die westliche Welt mit Europa und Amerika, der östliche Cluster mit asiatischen und islamischen, sowie die Südregion mit lateinamerikanischen und ein paar frankofonen Ländern.