Roboter:Mensch, Maschine!

Roboter werden klüger, emotionaler, humaner. Aber können Menschen sie je als echte Partner akzeptieren? Die Maschinen müssen nur noch soziales Verhalten lernen, sagen Experten.

Alexander Stirn

Vor dem Kleinen ist mal wieder nichts sicher. Erst fegt er den Papierstapel vom Tisch. Dann steckt er seine Nase in ein Buch - ganz so, als könne er lesen. Und zum Schluss wirft er, von Neugier getrieben, fast noch eine Colaflasche um. Aber wenn der Racker dann den Kopf zur Seite neigt und einen mit seinen großen blauen Augen ansieht, wer kann ihm da schon böse sein? Und wer denkt noch daran, dass der kleine Pleo eigentlich strunzdoof ist?

Roboter: PAPERO: ein sehr gesprächiges Maschinchen.

PAPERO: ein sehr gesprächiges Maschinchen.

(Foto: Foto: Hersteller)

Er versteht nichts, hat keine Empfindungen und interessiert sich schon gar nicht für die Gefühlslage der Menschen um ihn herum. Es sind nur seine 14 Servomotoren, die 38 Sensoren und eine anpassungsfähige Software, die diese Illusion erzeugen. Pleo ist eine künstliche Lebensform, ein Hightech-Spielzeug in Dinosauriergestalt. Und er ist einer von vielen Millionen Robotern, die heute - in ganz unterschiedlichen Formen - mit Menschen zusammenleben.

Die mechanischen Gesellen saugen selbstständig die Wohnung, sie kümmern sich um den Nachwuchs und versorgen bereits, zumindest in Japan, alte und kranke Menschen. Forscher sind sich sicher: Die Maschinen werden die Gesellschaft verändern, und die Gesellschaft muss sich auf sie einstellen.

Seele aus Blech

Bislang haben Ingenieure beim Bau von Robotern auf technische Details geachtet, auf das Zusammenspiel von Motoren und Sensoren. Jetzt rücken andere Dinge in den Mittelpunkt. Die künstlichen Mitbewohner brauchen Manieren und Persönlichkeit.

"Wenn Menschen über Jahre hinweg immer wieder mit Robotern in Kontakt treten, spielt es für die Akzeptanz der Maschinen eine große Rolle, dass sie soziale Fähigkeiten zeigen", sagt Kerstin Dautenhahn, die an der Universität Hertfordshire in Großbritannien das Zusammenleben von Menschen und Maschinen untersucht. Serviert ein Roboter zum Beispiel jeden Morgen mit immer denselben Worten den Kaffee, ohne sich auf seinen Besitzer einzustellen, wird das, so Dautenhahn, "schnell nervig und frustrierend". Wie aber sollte ein Roboter aussehen und handeln, wenn solch ein Frust gar nicht erst aufkommen soll?

Mitte April hat unter Führung der Londoner Queen Mary University ein ambitioniertes, europaweites Forschungsprojekt begonnen, das sich genau dieser Frage widmen will. "Uns interessiert, wie Menschen im alltäglichen Leben eine längerfristige Beziehung zu künstlichen Kreaturen aufbauen", sagt Projektleiter Peter McOwan.

Acht Millionen Euro stehen den Forschern zur Verfügung, um innerhalb der nächsten vier Jahre das Konzept eines künstlichen Begleiters zu entwickeln. Der soll nicht nur sensibel auf seine Nutzer reagieren, sondern auch deren Intentionen erkennen und verschiedene Arten der Kommunikation beherrschen. McOwan sagt: "Die große Frage ist: Welche Eigenschaften muss so ein synthetischer Kompagnon haben, damit sich Menschen auf ihn einlassen?"

"Als würden sie einen Freund besuchen"

Ein Apartment direkt neben der Universität von Hertfordshire, 30 Kilometer nördlich von London. Auf dem Couchtisch steht eine Schüssel mit Keksen, Bücher sind akkurat im Regal aufgereiht, ein Roboter bringt eine Tasse Tee. Hier, fernab der sterilen Atmosphäre eines Universitätslabors, untersucht die aus Deutschland stammende Kerstin Dautenhahn, wie Menschen mit sozialen Maschinen umgehen. Dauerhaft leben nur zwei Roboter in der Erdgeschosswohnung, die menschlichen Testpersonen der Forscher kommen zu Besuch, "ganz so, als würden sie einen Freund zum ersten Mal zu Hause besuchen", erzählt die Forscherin.

Roboter: Hiroshi Ishiguro von der Universität Osaka hat Geminoid nach seinem Vorbild erschaffen, um die Reaktionen von Studenten zu untersuchen.

Hiroshi Ishiguro von der Universität Osaka hat Geminoid nach seinem Vorbild erschaffen, um die Reaktionen von Studenten zu untersuchen.

(Foto: Foto: Hersteller)

Genauso alltäglich sind die Situationen, die Dautenhahn beobachtet. Wie zum Beispiel soll der Roboter den Tee servieren? Dezent oder mit Vorwarnung, frontal oder von der Seite? "Die Mehrzahl unserer Probanden fand es sehr unangenehm, wenn der Roboter hinter ihrem Rücken agierte", sagt die studierte Biologin. "Sie wollten ihn immer im Blick haben." Direkt von vorn sollte die Teetasse aber auch nicht gereicht werden: Das empfanden die Menschen als bedrohlich - egal, ob sie saßen oder standen und sogar unabhängig davon, wie der nur 1,40 Meter große Roboter aussah.

Die meisten Probanden sahen es am liebsten, wenn der Roboter sich ihnen schräg von der Seite näherte. Beim Abstand zwischen Mensch und Maschine erlebten die Forscher die nächste Überraschung. Einem großen Prozentsatz der Versuchsteilnehmer machte es nichts aus, wenn der Roboter ihnen auf die Pelle rückte und sie fast berührte - eine Distanz, die ansonsten engen Freunden oder Familienmitgliedern vorbehalten ist. Offensichtlich, folgert Dautenhahn, sahen die Probanden den Roboter aber nicht so sehr als Menschen, sondern eher als Maschine an - und für die gilt der soziale Mindestabstand nicht.

"Wir haben daraus gelernt, dass sich die psychologischen Modelle zur Interaktion zwischen Menschen nicht einfach auf den Kontakt mit Robotern übertragen lassen", sagt Dautenhahn. Vielmehr komme es auf die beteiligten Menschen und auf die Situation an, ob ein Roboter eher als Maschine agieren oder soziale Verhaltensweisen zeigen sollte. "Das hat viel mit Lernen, mit Adaptation zu tun und ist eine große technische Herausforderung."

Zu lange haben Informatiker geglaubt, ein Roboter könne perfekt mit seiner Umwelt interagieren, wenn sie ihm nur die passenden Sensoren einbauen und ihn für alle Eventualitäten programmieren. Doch die Welt ist zu komplex. Mittlerweile nehmen sich Psychologen und Pädagogen, Neurologen und Mediziner des Problems an, und sie verfolgen einen ganz anderen Ansatz: Ein sozialer Roboter muss seine Umwelt wie ein kleines Kind erkunden. Er muss sehen und greifen und durch den Kontakt mit anderen Menschen lernen, sich gesellschaftsfähig zu verhalten.

Roboterbaby mit Grips

Roboter: Autistische Kinder haben einen Draht zu Kaspar, den Kerstin Dautenhahn  an der Universität Hertfordshire entwickelt hat.

Autistische Kinder haben einen Draht zu Kaspar, den Kerstin Dautenhahn an der Universität Hertfordshire entwickelt hat.

(Foto: Foto: Hersteller)

ICub heißt das Roboterbaby, an dem sich Forscher aus zehn europäischen Instituten als Erziehungsberechtigte versuchen. Der künstliche Säugling kann krabbeln und sitzen. Er kann nach Dingen greifen. Mit seinem großen Kopf sieht und hört er, was um ihn herum vor sich geht. So kann der Kleine die Reaktionen anderer verstehen und seine eigenen Handlungen danach ausrichten. Vor allem aber haben ihm seine Eltern eine grundlegende Eigenschaft einprogrammiert: ICub ist neugierig.

"Verstand lässt sich nicht von außen einpflanzen", erklärt Kerstin Dautenhahn. "So etwas wie Intelligenz kann nur entstehen, wenn handelnde Wesen auf ihre Umwelt einwirken."

Noch ein Jahr läuft das Projekt. So lange hat das Roboterbaby Zeit zu lernen, wie man denkt und handelt und wie man möglichst natürlich mit Menschen umgeht. Gerade, weil Roboter künftig immer öfter Kontakt haben werden mit Senioren, mit Kindern und mit technischen Laien, die kein dickes Handbuch lesen wollen, komme dem besondere Bedeutung zu, sagt die Forscherin.

"ICub wird uns bei der Entwicklung sozialer Begleiter einen großen Schritt voranbringen", hofft Dautenhahn. Denn nicht nur das Roboterbaby soll viele neue Dinge lernen. Auch die Forscher müssen verstehen, wie Lernen überhaupt funktioniert und wie Menschen vorgehen, wenn sie einem Roboter etwas beibringen wollen. Leonardo zuckt mit den Schultern. Nein, darauf weiß er keine Antwort. "Leo, kannst du mir Elmo zeigen?", hat ihn Matthew Berlin gerade gefragt. Doch statt mit der roten Elmo-Puppe wedelt der Forscher mit einem blauen Krümelmonster. Der Roboter hält die Hand ans Kinn, schaut verwundert. Dann, endlich, kramt Berlin den roten Elmo hervor. Leonardos Miene hellt sich auf, ein Lächeln huscht über sein Gesicht. Er hebt die linke Hand und zeigt auf die Puppe.

Leonardo ist das jüngste und bislang teuerste Kind von Cynthia Breazeal, die am Media Lab des MIT in Cambridge die Arbeitsgruppe für persönliche Roboter leitet. Mit Leonardos Hilfe will die Forscherin herausfinden, welche Rolle Emotionen für das Verhältnis von Mensch und Maschine spielen. "Der ideale soziale Roboter vermittelt durch Gesten und Gesichtsausdrücke seine eigene Befindlichkeit, so dass sich Menschen schnell darauf einstellen können", sagt Breazeal.

Mit seinen großen Ohren, den überdimensionalen Augen und dem haarigen Bauch erinnert Leonardo an die niedlichen Geschöpfe aus dem Film "Gremlins". Kein Wunder, wurde sein Äußeres doch von Stan Winston geschaffen, der für Hollywood schon den Terminator und die Roboter in Steven Spielbergs Film "A.I." gebaut hat. Mehr als 60 Stellschrauben in Kopf und Körper des pelzigen Roboters erlauben ihm, so gut wie jeden Gefühlsausdruck zu erzeugen.

"Vieles ist von der Psychologie abgeschaut"

Leonardos Gehirn dagegen ist alles andere als ein Spezialeffekt. Es wurde am MIT entwickelt und leistet Erstaunliches: Über Kameras nimmt der Roboter seine Umgebung wahr. Erkennt er ein Gesicht, folgen Augen und Kopf dessen Bewegungen - die Maschine baut Blickkontakt auf.

Gleichzeitig analysieren Mikrofone die Umgebungsgeräusche, Tonlage und Intensität von Stimmen werden ausgewertet. Leonardo stimmt seine emotionalen Reaktionen auf die gewonnenen Eindrücke ab. Gleichzeitig versucht er aber auch zu erkennen, wie Menschen auf seinen Gesichtsausdruck reagieren - um daraus für die Zukunft zu lernen.

Selbst Weinerlichkeit, Fehler und zweideutige Reaktionen sind ihm nicht fremd. Solche Eigenheiten wecken Interesse und bauen eine Beziehung auf. Leo kann sogar Gedankenlesen: Fürs menschliche Zusammenleben ist es elementar, sich in andere hineinzuversetzen.

Psychologen nennen diese Fähigkeit "Theory of Mind". In einem klassischen Experiment, an dem Kinder unter drei Jahren regelmäßig scheitern, versteckt ein Forscher vor Leonardos Augen (und denen eines zweiten Wissenschaftlers) in zwei unterschiedlichen Kisten je eine Tüte Chips und eine Tüte Kekse. Nachdem der Kollege den Raum verlassen hat, vertauscht der Forscher die Tüten. Kommt der zweite Wissenschaftler nun zurück und versucht, die Kiste zu öffnen, in der ursprünglich die Chips und jetzt die Kekse liegen, weiß Leonardo genau, was er will - und gibt ihm eine Tüte Chips.

"Vieles von dem, was wir Robotern beibringen, ist von der Psychologie abgeschaut", sagt Breazeal. Leonardo beweist aber auch, dass äußerlich nicht viel geboten sein muss, um beim Menschen Emotionen zu erzeugen: Egal, ob Pleos blaue oder Leonardos braune Augen - sobald eine Maschine Augenkontakt herstellen kann, weckt sie Interesse.

Dreht der Roboter dann noch zielgerichtet den Kopf, macht Gesten oder verzieht das Gesicht, brechen alle Dämme. "Auf Kreaturen, die so auftreten, reagieren wir, als seien sie zu Empfindungen fähig", sagt die Soziologin Sherry Turkle, die am MIT seit 20 Jahren das mitunter seltsame Verhältnis von Menschen und Maschinen untersucht. "Darauf hat uns die Evolution programmiert." Die Folge: Die Menschen fühlen instinktiv ein Bedürfnis, sich um den Roboter zu kümmern - ganz besonders, wenn ihnen die Maschine auch noch das Gefühl vermittelt, gebraucht zu werden.

Es beginnt, was Turkle eine "reziproke Beziehung" nennt: Sobald sich Menschen um einen Roboter kümmern, erwarten sie auch, dass die Maschine für sie da ist. Zuneigung entsteht, manchmal sogar Empathie. "Die Maschinen mögen ihre Emotionen nur simulieren, aber die Gefühle, die sie bei uns hervorrufen, sind echt", sagt die Soziologin. Solch soziale Reflexe funktionieren sogar bei Menschen, die sich darüber bewusst sind, nur einen Haufen Chips und Drähte vor sich zu haben.

Selbst sehr rationale Männer halten ihren Pleo, wenn sie ihn mit dem Computer verbinden, um eine neue Software aufzuspielen, derart fest und liebevoll im Arm, als würden sie ihn zum Tierarzt bringen. Und Cynthia Breazeal, die Wissenschaftlerin, berichtet von einem tiefen Gefühl des Verlusts, als sie Kismet, Leonardos Vorgänger am MIT, nicht weiter betreuen konnte. Es sei wie die Trennung von einem Geschöpf gewesen, das man aufgezogen habe.

Roboterhunde gegen die Einsamkeit

In Altenheimen kann diese tiefe Bindung durchaus erwünscht sein. Der amerikanische Psychologe William Banks von der St. Louis University hat den Bewohnern eines Seniorenstifts acht Wochen lang entweder den echten Mischlingsrüden Sparky oder den Roboterhund Aibo vorbeigeschickt. Auch Aibo will gestreichelt werden; dann wackelt er mit dem Schwanz und blinkt mit seinen Lichtern. Im Lauf des Experiments bauten die Senioren zu beiden Geschöpfen eine tiefe emotionale Bindung auf, sie fühlten sich weniger einsam.

"Am meisten hat uns überrascht, dass es so gut wie keine Unterschiede zwischen den positiven Effekten der beiden Kreaturen gab", sagt Banks. Die Studie zeigt auch, dass Roboter, wenn sie Eindruck machen wollen, nicht unbedingt menschenähnlich aussehen müssen.

Im Gegenteil: "Roboter werden sich immer von Menschen und Tieren unterscheiden", sagt Breazeal. "Warum sollten wir also einen Roboter bauen, der aussieht und reagiert wie ein Geschöpf, das er nie sein wird?" Gerade weil Leonardo & Co. so anders, so interessant aussähen, seien sie wertvoll für unser Leben. "Roboter müssen nur auf eine glaubwürdige Art und Weise Persönlichkeit ausstrahlen", sagt Cynthia Breazeal. "Realistisch muss das nicht sein."

In den Augen des japanischen Roboterforschers Masahiro Mori ist es sogar riskant, immer menschenähnlichere Roboter bauen zu wollen. Bereits 1970 stellte Mori die These des "unheimlichen Tals" auf: Ähnelt ein Roboter einem Menschen sehr stark, verhält sich aber nicht hundertprozentig wie sein Vorbild, ist das Risiko groß, dass die Beziehung scheitert. Der Mensch fixiere sich, so Mori, unbewusst auf jene Details des Roboters, die doch nicht menschenähnlich seien. Fehle einem ansonsten perfekten Roboter zum Beispiel das Lächeln in den Augen, lasse ihn das unheimlich erscheinen - fast wie einen Zombie. Abscheu sei die Folge.

Als Kerstin Dautenhahn in England untersuchte, welches Roboterantlitz am besten ankommt, stellte sie allerdings deutliche Unterschiede zwischen den Menschen fest. Eher extrovertierte Probanden bevorzugen demnach einen humanoiden Roboter, der ihnen mit menschlichen Gesichtszügen und einer vertrauten Stimme gegenübertritt. Introvertierte Menschen empfinden es dagegen angenehmer, von einem eher mechanischen Roboter bedient zu werden.

Die kulturellen Unterschiede sind mindestens genauso groß: Im Westen, wo das Bild der Roboter noch immer von Filmen wie "Terminator" geprägt sei, hätten menschenähnliche Kreaturen kaum eine Chance, glaubt Breazeal. In Japan, wo Kinder bereits mit Robotern aufwachsen, sehe die Sache ganz anders aus:

Das Land steht vor einem gravierenden Generationenproblem. Mehr als ein Fünftel der Bevölkerung ist 65 Jahre oder älter, es gibt nicht genügend Pflegekräfte für die Senioren. Deshalb sollen, darüber herrscht Konsens, Roboter diese Aufgabe übernehmen. Am besten menschenähnliche.

Der Silikon-Professor

Hiroshi Ishiguro geht heute nicht zur Vorlesung. Es ist seine Vorlesung. Statt sie aber selbst zu halten und die Studenten zu unterrichten, schickt der Professor von der Universität Osaka einen Doppelgänger: Geminoid ist zwar hirnlos, seinem Meister aber wie aus dem Gesicht geschnitten. Nicht nur die große Brille und die welligen schwarzen Haare, auch Haut und Körperbau sind eine exakte Kopie des Vorbilds aus Fleisch und Blut. Geist und Sprache erhält Geminoid per Fernsteuerung.

Ishiguro will mit seiner Kopie aus Stahl und Silikon untersuchen, wie Menschen auf allzu humanoide Roboter reagieren. Offensichtlich zeigen sie wenig Scheu. Studenten, die an seinem Doppelgänger vorbeigingen, sagten ganz normal "Hallo", erzählt Ishiguro der österreichischen Tageszeitung Der Standard. Manche unterhielten sich sogar lieber mit dem Silikon-Professor, weil sie ihn als weniger bedrohlich empfanden.

Das "unheimliche Tal" versucht der japanische Professor mit viel Technik zu überbrücken: Ishiguros Doppelgänger sitzt nie still. Mikromotoren heben Schultern und Brustkorb, ganz so, als würde der Roboter atmen. Geminoid blinzelt, bewegt die Augen, wippt ungeduldig mit dem Fuß. Durch einen Mausklick kann Ishiguro vom Nebenraum aus die Roboterhände steuern. Sensoren an seinen Lippen übertragen die Sprachbewegungen, die Stimme des Meisters ertönt aus einem Lautsprecher im Kopf.

Ishiguro ist sich sicher: "Der Engpass ist nicht mehr die Technik, sondern die künstliche Intelligenz." Gut 50 Jahre, schätzt der Forscher, dürften aber noch vergehen, bis erstmals eine perfekte Kopie des Homo sapiens umherspaziert.

"Sex mit Robotern ist unvermeidlich"

Bis dahin werden Menschen längst intime Beziehungen zu Maschinen haben, ist David Levy überzeugt. "Roboter werden künftig so menschenähnlich in ihrem Aussehen, ihrer Funktion und Persönlichkeit sein, dass sich Menschen in sie verlieben werden", schreibt der Robotikexperte in seinem Buch "Love and Sex with Robots". Schließlich lassen sich die meisten Gründe, aus denen sich zwei Menschen ineinander verlieben, programmieren - etwa gemeinsames Wissen, eine ähnliche Persönlichkeit oder erwiderte Gefühle.

Zudem können sich Roboter dank künstlicher Intelligenz so verhalten, als hätten sie die ganze Bandbreite menschlicher Erfahrungen gemacht. "Sex mit Robotern ist daher unvermeidlich", folgert Levy.

Besonders interessant sei das für die Millionen von Menschen, die Probleme hätten, zu anderen eine emotionale Beziehung aufzubauen. "Ist die Simulation perfekt, kommt es nicht darauf an, ob die Gefühle echt sind oder nicht", sagt Levy. "Auch Menschen täuschen Gefühle vor, und wir glauben trotzdem daran."

Mit dieser Einstellung kann sich Kerstin Dautenhahn nicht anfreunden. "Man darf den Menschen nicht vorgaukeln, Roboter hätten Emotionen", sagt die Biologin. Dass eine Maschine eines Tages Sätze wie "Ich hab dich ganz doll lieb" sagen könnte und damit bei älteren, kranken oder einsamen Menschen auf offene Ohren stieße, ist für Dautenhahn schlichtweg eine "Horrorvision". Schließlich könne ein Roboter einem Menschen nie und nimmer das zurückgeben, was dieser in einer typisch menschlichen Beziehung bekommen würde.

"Wir sollten uns nicht fragen, ob Roboter in der Lage sein werden, uns zu lieben, sondern warum wir von Robotern geliebt werden wollen", sagt auch Sherry Turkle. Die Soziologin aus Boston sieht noch weitere ungeklärte Fragen: Wie etwa werden sich Kinder entwickeln, die heute mit Robotern groß werden?

Kindergartenfreund aus Stahl

Als amerikanische Krippenkinder im vergangenen Jahr einen neuen Spielkameraden bekamen, freundeten sie sich problemlos mit ihm an - obwohl er alles andere als menschlich war. Forscher der Universität von Kalifornien in San Diego hatten Qrio, einen 60 Zentimeter großen, tanzenden Roboter mitgebracht. Die Kinder im Alter von 18 bis 24 Monaten akzeptierten die Maschine schnell in ihrer Runde - besonders als sie anfing, auf Berührungen am Kopf mit Kichern zu reagieren.

Nach fünf Monaten hätten die Kinder Qrio wie einen Gleichaltrigen und nicht wie ein Spielzeug behandelt, berichtet Studienleiter Fumihide Tanaka. Sank der Roboter zu Boden, weil ihm der Strom ausging, versuchten die Kleinen, ihn wachzurütteln oder zuzudecken, ganz so, wie sie es mit anderen Kindern auch machten.

"Die Gefahr besteht, dass Kinder nicht mehr zwischen emotionalen Bindungen zu Menschen und Robotern unterscheiden können", warnt Sherry Turkle. Oder dass sie den einfachen und konfliktfreien Umgang mit Robotern künftig dem menschlichen Kontakt vorziehen. Eine der Studentinnen, die Turkle für ihre Studien interviewt hat, berichtet ganz offen, dass sie ihren Freund sofort gegen einen "technisch ausgefeilten japanischen Roboter" eintauschen würde, sofern dieser eines Tages "liebevolles Verhalten" zeige. Zu Hause bevorzuge sie eine zuvorkommende Atmosphäre. Könne der Roboter das garantieren, würde sie sich gern der Illusion hingeben, dass er für sie sorgen würde.

"Gibt es tatsächlich die Möglichkeit, dass menschliche Beziehungen eines Tages als zu anstrengend angesehen werden?", fragt Turkle. Dass Menschen beim Partner oder bei der Partnerin den Ausschaltknopf vermissen? Und was bedeutet es für eine Gesellschaft, wenn Menschen echte emotionale Beziehungen zu künstlichen Geschöpfen aufbauen, die nicht sterben und mit deren Verlust sie nie fertig werden müssen?

Selbst Turkle räumt ein, dass es vermutlich schwer sein wird, Computerkreaturen zu widerstehen. Die Ambivalenz des Lebens, die ganze Spanne von heller Begeisterung bis tiefer Trauer, könnten die Maschinen den Menschen dennoch nie vermitteln.

Ohne den kleinen Streit am Küchentisch, ohne die fast beiläufige Berührung beim Fernsehen, ohne die spontane Reise nach Rom, fehlten einfach die Zwischentöne des Lebens. "Sicherlich kommt sozialen Robotern künftig eine große Bedeutung zu", glaubt Sherry Turkle. "Aber wir müssen uns auch klar darüber werden, wo ihr Platz ist." Auch mal im Regal. Ausgeschaltet.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: