Emotionserkennung Mein Smartphone weiß, dass ich wütend bin

  • "Affective Computing" wird wichtiger: Computersysteme sollen Gefühle erkennen und simulieren.
  • Doch die Frage, wie sich Emotionen kategorisieren lassen, ist komplex.
Von Johannes Kuhn, Austin

"Lass mich einen Witz erzählen." So versucht ein lächelnder Will Smith die Stimmung auf der Dachterrasse aufzulockern. Im Hintergrund rauscht das Meer, doch Sophia reagiert sichtbar abweisend: "Es ist irrationales menschliches Verhalten, Witze zu erzählen", antwortet sie und schaut ernst drein.

Sophia ist ein Roboter in Frauengestalt. Mehr als 15 Millionen Youtube-Zuschauer haben in den vergangenen zwölf Monaten das Video gesehen, in dem sie den Schauspieler Smith auflaufen lässt.

Der unfreiwillige Humor des Mensch-Maschine-Dialogs ergibt sich daraus, dass Sophia, der Roboter, mehrere Defizite hat. Das vielleicht größte: Ihre Software kann im Gespräch weder glaubhaft menschliche Emotionen simulieren noch kann sie Smiths Verhalten so gut interpretieren, dass ihr Programm ihn auf etwas menschlichere Weise abblitzen lassen kann.

"Technologie hat einen hohen Intelligenzquotienten, aber noch wenig emotionale Intelligenz", brachte es jüngst die Designerin Pamela Pavliscak auf dem Technologiefestival South by Southwest (SXSW) auf den Punkt. Sie arbeitet wie andere Programmier, Designer, Start-ups und Neurowissenschaftler daran, dass Computersysteme den Umgang mit Emotionen lernen und selbst authentischer Gefühle repräsentieren können.

Als Forschungsdisziplin hat das "Affective Computing", das Gefühle maschinell erkennbar machen möchte, in den späten 1990er Jahren seinen Ursprung. Seit einiger Zeit werden die Anwendungen mit Hilfe lernender Systeme, Big Data, allgegenwärtiger Sensoren und Bilderkennung immer konkreter.

Konzepte wie die allgemeinen menschlichen "Basisemotionen", die aus Gesichtsausdrücken abgeleitet werden können, sind schon lange umstritten.

(Foto: imago)

Assistenz-Software mit Emo-Faktor

So entwickelt sich zum Beispiel im Schatten der "Künstlichen Intelligenz" (KI) das Feld der "Künstlichen Emotionalen Intelligenz" (KEI). Pulsrate, Körpertemperatur, Gesten, Gesichtsausdruck, Worte: All diese Informationen sind messbar und digital kategorisierbar. Software kann sie auswerten und die eigene Reaktion anpassen, also Verständnis simulieren.

In der Praxis werden solche intimen Messverfahren schon länger in der Werbebranche angewandt, um die Reaktion von Fokusgruppen datenbasiert zu testen. Autohersteller wollen per Kamera, Stimmerkennung und Sensoren feststellen, ob die Person hinter dem Steuer müde, gereizt oder sogar wütend ist. Im Notfall soll die Software bald die Kontrolle des Wagens übernehmen können.

Im Heimgebrauch kann Texterkennungssoftware aus E-Mails ein Persönlichkeitsprofil des Absenders destillieren. Firmen wie Microsoft oder verschiedene Unternehmensberatungen testen digitale Büroassistenten, die auf den emotionalen Zustand eines Mitarbeiters Rücksicht nehmen und so die Produktivität optimieren. Chatbots finden bereits Einsatzfelder in der Psychotherapie. Und auf Spracherkennung aufbauende Assistenzsysteme wie Alexa oder Siri erhalten stärkere Komponenten von Emotionserkennung. Natürlich auch, um selbst menschlicher wirken zu können.

Wie bei allen digitalen Entwicklungen wandert der Blick verstärkt nach China. Das Land testet zum Beispiel die Emotionsanalyse in Klassenzimmern, um die Aufmerksamkeit von Kindern und das Verhalten der Lehrer zu überprüfen. So soll der Unterricht besser auf die Bedürfnisse der Schüler abgestimmt werden. In einem Land, das Polizisten mit Datenbrillen zur Gesichtserkennung von Passanten ausstattet, ist damit das Ende noch lange nicht erreicht.