Süddeutsche Zeitung

Künstliche Intelligenz:Die Maschinen tun, als hätten sie Gefühle

Roboter und Computerprogramme lernen, Emotionen zu erkennen und darauf zu reagieren. Die Systeme simulieren schon Bewerbungsgespräche und könnten Autisten helfen.

Von Eva Wolfangel

Der Mann auf dem Trainingsrad strengt sich an und tritt in die Pedale. Plötzlich verzieht er das Gesicht. "Du wirkst, als hättest du Schmerzen", sagt sein Trainer und sieht ihn mitfühlend an, "versuche, langsamer zu treten." Der Mann tritt langsamer, der Trainer lächelt und sagt: "Viel besser." So weit, so normal. Doch der Trainer ist kein Mensch, sondern ein Avatar. Er steht dem Sportler auf einem großen Bildschirm gegenüber und spürt, wie es diesem geht. Das Projekt der Uni Augsburg in Kooperation mit dem Uniklinikum in Ulm ist eines von vielen aus dem wachsenden Themenfeld des Affective Computing, einer Forschungsrichtung der Informatik, in der es darum geht, dass sich Maschinen an Menschen anpassen und deren Gefühle verstehen.

"Gerade ältere Menschen haben häufig panische Angst, dass sie durch sportliche Betätigung Schmerzen bekommen", sagt Elisabeth André von der Uni Augsburg. Sport deswegen zu vermeiden, sei jedoch keine gute Idee. Der Trainer auf dem Bildschirm soll also zum Beispiel Senioren helfen, das richtige Maß zu finden. Dafür interpretiert er ihre Gesichtsausdrücke, aber auch die Geräusche wie ein lautes Ausatmen. Zudem misst das System Hautleitwert und Puls und registriert darüber auch, ob der Nutzer im Stress ist oder sich gerade überlastet. Der Trainer passt seinen Gesichtsausdruck und seine Gestik an und wirkt so tatsächlich mitfühlend - obwohl das ein Computer natürlich nicht sein kann.

"Das ist die Zukunft", sagt Björn Schuller von der Universität Augsburg. "Emotionen sind wichtig, weil Menschen sie zum Überleben gebraucht haben, also wird künstliche Intelligenz sie auch zum Überleben benötigen." Im Idealfall sollen sich die Maschinen so anpassen, wie wir Menschen das untereinander auch tun. Wer bei solchen Visionen zunächst an die USA denkt, liegt übrigens falsch: "Deutschland ist neben den USA eine treibende Kraft in diesem Feld", sagt Schuller, der schon seit vielen Jahren auf diesem Gebiet forscht. Aktuell wachse die Forschungsrichtung stark an - und so langsam zeigen sich die Herausforderungen. Viele Projekte haben ein Training im Blick, bei dem die Menschen auch lernen, wie ihre Emotionen auf andere wirken. Ähnlich wie der Trainer-Avatar passt sich der Gesprächspartner eines virtuellen Vorstellungsgesprächs an die Stimmung des Bewerbers an.

Auch Maschinen sollen für subtile Signale empfänglich werden

An diesen Punkt zu kommen, sei eine weite Reise gewesen, sagt Patrick Gebhard vom Deutschen Forschungszentrum für Künstliche Intelligenz DFKI in Saarbrücken. Es sei zu kurz gegriffen, alleine aus dem Gesichtsausdruck auf Emotionen zu schließen. Doch viele Forscher setzten ausschließlich darauf. "Informatiker sind super Mustererkenner", sagt Gebhard, "aber wir müssen auch ein Modell haben, zu dem die Muster passen." Es muss also möglich sein, den Gesichtsausdruck zu interpretieren, und dafür braucht es Kontextwissen. So deuten die üblichen Apps ein Lächeln stets als Freude - aber manchmal drückt ein Lächeln auch Schadenfreude oder Scham aus. Natürlich kann es auch schlicht aufgesetzt sein.

Gebhard und seine Kollegen haben jahrelang gemeinsam mit Psychologen an einem Modell gearbeitet, das nun dem System hinterlegt ist. Es hilft diesem zu erkennen, ob der Proband im Vorstellungsgespräch beispielsweise beschämt oder freudig lächelt. "Scham will man verstecken", sagt Gebhard. Deshalb sei das ein gutes Beispiel, um verschiedene Regulationsmechanismen der Menschen zu untersuchen und einer Maschine deren Unterscheidung beizubringen. Schließlich reagieren manche Menschen in beschämenden Situationen, indem sie sich verschließen, während andere sich herausreden und wieder andere zum Angriff übergehen. Wenn das Gegenüber in solchen Situationen nicht angepasst reagiert, kann es eskalieren. "Ein Bewerbungsgespräch ist eine prototypische Situation dafür, in der ich zeigen muss: Ich bin gut", sagt Gebhard - gleichzeitig werden Bewerber häufig mit Scham auslösenden Fragen konfrontiert, beispielsweise mit der nach ihren Schwächen.

Die Forscher programmierten zunächst das psychologische Modell in ihr System, das anschließend Bewerbungsgespräche mit Probanden beobachtete und anhand deren Reaktionen lernte, Mimik und Gestik zu interpretieren. Mit zunächst menschlicher Hilfe ordnete das System diese Situationen einem der Regulationsmechanismen zu und lernte daraus. Das ist wichtig, damit der Avatar seine Reaktion entsprechend anpassen kann - nur so kommt ein Gespräch zustande, das sich natürlich anfühlt und aus dem der Proband auch lernt. Aus allen Informationen berechnet das System schließlich auch das Feedback, zum Bespiel: "An dieser Stelle hast du gelächelt, aber wir hatten keinen Blickkontakt - das wirkt unsicher."

Ein ähnliches Ziel hat Emotisk, ein Trainingssystem, das Forscher der Humboldt-Uni Berlin mit den Unikliniken Aachen und Köln entwickeln: Langfristig soll es Autisten helfen, Emotionen ihrer Mitmenschen zu erkennen und in dem Gespräch angepasste nonverbale Signale zu senden. Dafür wertet die Software etwa die Blickrichtung sowie den Gesichtsausdruck aus und gibt dem Nutzer Feedback - auch hier passt sich der Avatar an die Stimmung an.

Eine weitere große Zielgruppe emotionssensitiver Roboter sind ältere oder kognitiv beeinträchtigte Menschen, die durch derlei Unterstützung zum Beispiel länger selbständig bleiben können. Auf welche Hürden solche Systeme stoßen, das mussten Forscher um Stefan Kopp von der Uni Bielefeld feststellen: "Von den langen Sätzen unserer Probanden war die Spracherkennung schlicht überfordert." Ihr Roboteravatar soll Nutzern bei der Tagesstrukturierung helfen. Dazu muss das System Menschen sanft mittels Gesten unterbrechen, ohne unhöflich zu wirken, und schließlich lernen, Missverständnisse rasch zu erkennen. "Er soll möglichst schnell merken, wann der Nutzer skeptisch ist oder wenn Mensch und Technik aneinander vorbeireden", sagt Kopp. Dafür initiierten die Wissenschaftler zunächst bewusst Kommunikationsprobleme, damit das System lernte, diese anhand der Reaktion des menschlichen Gegenübers schnell zu erkennen. "Menschen sind für subtile Signale sehr empfänglich, das sollten Maschinen auch können", sagt Kopp.

Als der Avatar die Emotionen nicht verstand, warf ein zorniger Nutzer den PC aus dem Fenster

Was allerdings häufig übersehen wird: Gerade bei emotionalen Beziehungen ist auch die äußere Gestalt der Roboter wichtig. "Nicht alles, was mal kurz süß ist, möchte man den ganzen Tag um sich haben", sagt Marc Hassenzahl, Professor für Ubiquitous Design an der Universität Siegen. Kindchenschema hat also ausgedient. Und auch die Frage, was die Zielgruppe wirklich möchte, ist Hassenzahl wichtig: Die Reihe an Experimenten für das Projekt "Sympartner", das er gemeinsam mit der Arbeiterwohlfahrt Essen und der TU Ilmenau umsetzt, wirkt auf den ersten Blick amüsant. Ein Mensch sitzt dazu in einem - je unterschiedlich gestalteten - Pappkarton und spielt den Roboter, während eine Schauspielerin mit diesem verschiedene Szenen durchspielt: von der Begrüßung an der Tür (Roboter: "Hallo, schön dass du wieder da bist!") bis zum Ins-Bett-Bringen und morgendlichen Wecken.

Bei diesen Tätigkeiten bleibt der Roboter in der Tür zum Schlafzimmer stehen. Das habe die Gruppe nach vielen Interviews herausbekommen, in denen die Szenen mit der Schauspielerin gezeigt wurden: "Hier fängt die Intimität an." Der Roboter klopft jetzt an die Tür - auch wenn sie geöffnet ist. Anstatt lediglich Menschen zu imitieren, sei es zudem wichtig, das zu nutzen, was Roboter besonders gut können: "Sie haben eine unendliche Geduld - und man muss sich nicht bei ihnen bedanken", sagt Hassenzahl. Wenn Menschen ständig auf die Hilfe anderer angewiesen sind, kann sie so etwas emotional enorm entlasten. Ein Roboter hegt keine Hintergedanken, wie beruhigend.

"Sozialsensitive und kooperative Systeme sind die Zukunft", sagt Stefan Kopp von der Uni Bielefeld. Und das aus einer Notwendigkeit heraus: Wie wichtig es ist, dass Maschinen lernen, sich an Menschen anzupassen, ist den Forscher des DFKI klar geworden, als sie es ohne diese Fähigkeit probierten. Ein Vorgängerprojekt des jetzigen Bewerbungsgesprächs-Trainers sollte Jugendliche mit sozialen Problemen unterstützen. "Nur ohne integriertes Emotionsmodell", sagt Patrick Gebhard. Einer der Nutzer fühlte sich offenbar zu sehr in die Enge getrieben von dem Avatar, der ihn wieder und wieder mit unangenehmen Erfahrungen konfrontierte, ohne Rücksicht auf dessen emotionale Verfassung zu nehmen. Der junge Mann warf den Monitor mit dem Avatar irgendwann kurzerhand aus dem Fenster.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.3870271
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 19.02.2018/jab
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.