Er gilt als einer der weltweit führenden Köpfe zum Thema künstliche Intelligenz und ist geistiger Vater des humanoiden Roboters "Roboy": Rolf Pfeifer war Gründer und Leiter des "Labors für Künstliche Intelligenz" an der Universität Zürich. Seit seiner Emeritierung im Juli 2014 forscht er an der Universität Ōsaka und der Jiaotong-Universität Shanghai. Der 68-jährige "Guru der Robotik" beschäftigt sich mit Fragestellungen rund um das künstliche Leben, mit der Biorobotik, mit Emotionen und der Lehre von der Struktur und Form von Organismen (Morphologie). Im Semester 2003/2004 hielt er an der Universität Tokio die erste globale Video-Vorlesungsreihe der Welt.
SZ: Herr Pfeifer, kann es sein, dass es irgendwann Roboter geben wird, die so wie "Terminatoren" blitzschnell und situationsbedingt Entscheidungen treffen können?
Rolf Pfeifer: Erwarten Sie von mir keine Zukunftsprognose. Aber betrachten wir zunächst mal einen Roboter, der nicht "Terminator"-ähnlich ist, zum Beispiel selbstfahrende Autos. Die fahren im Augenblick zwar noch sehr langsam, aber das ist keine Sache, die erst in 20 Jahren kommen wird, das werden wir in den nächsten zwei, drei Jahren haben. So ein Auto beispielsweise muss in Verkehrssituationen ebenfalls sehr schnell Entscheidungen treffen.
Die Entscheidungen, die ein Roboter-Auto treffen muss, sind sehr übersichtlich. Im Grunde geht es doch lediglich darum, Kollisionen zu vermeiden. Aber es muss keine Situation erkannt werden, die vorher vielleicht so noch nie da war.
Da bin ich mir nicht so sicher. Ich glaube, es werden sich durchaus profunde ethische Fragen stellen. Wenn man sich zum Beispiel eine Situation vorstellt, bei der ein Kind mit dem Ball auf die Straße rennt, und das Auto ist zu schnell um noch rechtzeitig zu bremsen, und im weiteren Umfeld befinden sich weitere Verkehrsteilnehmer. Unter Umständen lautet die zu treffende Entscheidung dann, welches Menschenleben geopfert wird, um insgesamt den geringsten Schaden anzurichten. Ich glaube nicht, dass es dafür eine gute Lösung gibt. Trivial ist das auf jeden Fall nicht.
Sie werfen einen interessanten ethischen Aspekt auf. Aber wenn wir die Sache vom technischen Standpunkt aus betrachten: Bedeutet die Existenz autonom fahrender Autos, dass es irgendwann einmal künstliche Intelligenz in der Form geben wird, wie sie in den "Terminator"-Filmen gezeigt wird?
Als Wissenschaftler würde ich nie "nie" sagen. Aber als Ingenieur weiß ich natürlich, dass die Entscheidungen, die ein Roboter-Auto treffen muss, viel eingeschränkter sind als bei einem Roboter, der sich in der Gesellschaft bewegt. Das Auto kann im Prinzip bremsen, beschleunigen, es kann nach links oder nach rechts fahren, sonst kann es nichts. Es hat also einen extrem eingeschränkten Handlungsspielraum, während ein Roboter einen sehr viel größeren Handlungsspielraum hat. Das macht die Sache komplex.
Ist die Entwicklung von Robotern mit viel weitreichenderen Fähigkeiten überhaupt sinnvoll?
Das kann keiner ausschließen, aber den Weg dorthin halte ich für unwahrscheinlich. Denn unsere Hypothese, die von immer mehr Wissenschaftlern getragen wird, lautet, dass es für die menschlichen Formen künstlicher Intelligenz eines Körpers bedarf. Wir sprechen hier vom Konzept der "Embodied Intelligence", die sich ja auch evolutionsgeschichtlich so entwickelt hat. Das heißt: Unsere Kognition war immer Teil eines ganzen Organismus. Dieser Organismus prägt die Art des Denkens, die Art, wie wir handeln und auch die Art unserer ethischen Prinzipien, wie wir als Menschen miteinander umgehen. Das ganzheitlich hinzubekommen, ist eine extrem komplizierte und teure Aufgabe. Und der wirtschaftliche Nutzen dabei ist zunächst nicht erkennbar.