bedeckt München 11°
vgwortpixel

Emotionserkennung:Mein Smartphone weiß, dass ich wütend bin

  • "Affective Computing" wird wichtiger: Computersysteme sollen Gefühle erkennen und simulieren.
  • Doch die Frage, wie sich Emotionen kategorisieren lassen, ist komplex.

"Lass mich einen Witz erzählen." So versucht ein lächelnder Will Smith die Stimmung auf der Dachterrasse aufzulockern. Im Hintergrund rauscht das Meer, doch Sophia reagiert sichtbar abweisend: "Es ist irrationales menschliches Verhalten, Witze zu erzählen", antwortet sie und schaut ernst drein.

Sophia ist ein Roboter in Frauengestalt. Mehr als 15 Millionen Youtube-Zuschauer haben in den vergangenen zwölf Monaten das Video gesehen, in dem sie den Schauspieler Smith auflaufen lässt.

Der unfreiwillige Humor des Mensch-Maschine-Dialogs ergibt sich daraus, dass Sophia, der Roboter, mehrere Defizite hat. Das vielleicht größte: Ihre Software kann im Gespräch weder glaubhaft menschliche Emotionen simulieren noch kann sie Smiths Verhalten so gut interpretieren, dass ihr Programm ihn auf etwas menschlichere Weise abblitzen lassen kann.

"Technologie hat einen hohen Intelligenzquotienten, aber noch wenig emotionale Intelligenz", brachte es jüngst die Designerin Pamela Pavliscak auf dem Technologiefestival South by Southwest (SXSW) auf den Punkt. Sie arbeitet wie andere Programmier, Designer, Start-ups und Neurowissenschaftler daran, dass Computersysteme den Umgang mit Emotionen lernen und selbst authentischer Gefühle repräsentieren können.

Als Forschungsdisziplin hat das "Affective Computing", das Gefühle maschinell erkennbar machen möchte, in den späten 1990er Jahren seinen Ursprung. Seit einiger Zeit werden die Anwendungen mit Hilfe lernender Systeme, Big Data, allgegenwärtiger Sensoren und Bilderkennung immer konkreter.

A Facebook angry face is seen on an iphone in this photo illustration iPhone and cup of coffee on a

Konzepte wie die allgemeinen menschlichen "Basisemotionen", die aus Gesichtsausdrücken abgeleitet werden können, sind schon lange umstritten.

(Foto: imago)

Assistenz-Software mit Emo-Faktor

So entwickelt sich zum Beispiel im Schatten der "Künstlichen Intelligenz" (KI) das Feld der "Künstlichen Emotionalen Intelligenz" (KEI). Pulsrate, Körpertemperatur, Gesten, Gesichtsausdruck, Worte: All diese Informationen sind messbar und digital kategorisierbar. Software kann sie auswerten und die eigene Reaktion anpassen, also Verständnis simulieren.

In der Praxis werden solche intimen Messverfahren schon länger in der Werbebranche angewandt, um die Reaktion von Fokusgruppen datenbasiert zu testen. Autohersteller wollen per Kamera, Stimmerkennung und Sensoren feststellen, ob die Person hinter dem Steuer müde, gereizt oder sogar wütend ist. Im Notfall soll die Software bald die Kontrolle des Wagens übernehmen können.

Im Heimgebrauch kann Texterkennungssoftware aus E-Mails ein Persönlichkeitsprofil des Absenders destillieren. Firmen wie Microsoft oder verschiedene Unternehmensberatungen testen digitale Büroassistenten, die auf den emotionalen Zustand eines Mitarbeiters Rücksicht nehmen und so die Produktivität optimieren. Chatbots finden bereits Einsatzfelder in der Psychotherapie. Und auf Spracherkennung aufbauende Assistenzsysteme wie Alexa oder Siri erhalten stärkere Komponenten von Emotionserkennung. Natürlich auch, um selbst menschlicher wirken zu können.

Wie bei allen digitalen Entwicklungen wandert der Blick verstärkt nach China. Das Land testet zum Beispiel die Emotionsanalyse in Klassenzimmern, um die Aufmerksamkeit von Kindern und das Verhalten der Lehrer zu überprüfen. So soll der Unterricht besser auf die Bedürfnisse der Schüler abgestimmt werden. In einem Land, das Polizisten mit Datenbrillen zur Gesichtserkennung von Passanten ausstattet, ist damit das Ende noch lange nicht erreicht.

"Emotionen" sind schwer definierbar

Ethische Fragen rund um Intimität und Privatsphäre werden in Europa und den USA ausführlich diskutiert. "Opt-In" - also zustimmungspflichtig - müsse der Einsatz sein, das ist der derzeitige Konsens. Niemand möchte, dass seine Gefühle ohne sein Wissen analysiert werden.

Allerdings gibt es auch Zweifel, ob dies gerade überhaupt die richtige Debatte ist. Designerin Pavliscak warnte auf der SXSW: "Meine größere Sorge ist, dass die ausgewerteten Informationen nicht nuanciert, zweideutig und kontextualisiert genug sein werden, um wirklich hilfreich bei der Emotionserkennung zu sein." Denn: "Es könnte sein, dass wir die Daten überschätzen, nur weil wir sie problemlos sammeln können."

Konkret geht es um die Frage der Kategorisierung. Emotionen sind nicht nur komplex, es gibt nicht einmal eine einheitliche Definition für sie. Oder ein detailliertes Verständnis, wie sie messbar sind und ob es sich wirklich um etwas "universell Menschliches" handelt, das unabhängig vom kulturellen Kontext existiert.

Konzepte wie die allgemeinen menschlichen "Basisemotionen" (Freude, Wut, Ekel, Verachtung, Traurigkeit, Furcht, Überraschung), wie sie der Psychologe Paul Ekman nennt, die aus Gesichtsausdrücken abgeleitet werden können, sind schon lange umstritten. Dennoch ziehen IT-Entwickler die Basisemotionen oft heran, um ihrer Software Kategorien für Emotionserkennung einzuimpfen.

Aber auch eine Maschine kann Gefühle falsch einordnen und entsprechend falsch reagieren. "Wut" hat eben nicht überall die gleiche komplexe Bedeutung, nur weil es das Wort in mehreren Sprachen gibt. Doch weil IT-Großsysteme an der Mensch-Maschine-Schnittstelle auch unser Verhalten trainieren, könnten sich in einem möglichen Szenario tatsächlich Emotionskategorien vereinheitlichen. Kulturelle Nuancen und Komplexitäten würden dann verschwinden, weil sie in den Datenbanken keine Entsprechung haben.

Rüde Roboter

In diesem Zusammenhang machte 2017 ein Chat-Screenshot die Runde. Auf der einen Seite war dort der Google-Assistent zu sehen, der auf die Aussage "Ich bin traurig" antwortete: "Ich wünschte, ich hätte Arme, damit ich dich umarmen könnte." Der Chatbot Alisa, ein Produkt der russischen Firma Yandex, antwortete auf die gleiche Feststellung: "Niemand hat behauptet, dass es im Leben um Spaß geht."

Sind solche interkulturellen Differenzen anachronistisch oder ein Vorteil? Aleksandra Przegalinska, Professorin für Philosophie der Künstlichen Intelligenz am Massachusetts Institute of Technology (MIT), stellte auf der SXSW Befragungen von Chatbot-Nutzern vor. Ihr Fazit: Menschen vertrauen Maschinen dann, wenn sie nicht zu menschenähnlich sind, aber gleichzeitig eine gewisse Form von persönlicher Integrität simulieren. Sie dürfen dem Nutzer also nicht nach dem Mund reden.

Doch ein Google-Assistent ist eben ein Google-Assistent: Seine symbolische Umarmung drückt kein maschinelles Einfühlungsvermögen aus, sondern bildet einen Software-Mechanismus ab, der den Eindruck emotionaler Nähe erzeugen und den Dialog ins Positive zwischen Mensch und Maschine wenden soll. Was den Menschen als Kreatur, die sich Dinge gerne als Kreaturen vorstellt, wohl nicht daran hindern wird, es mit Gefühlen zu verwechseln.

© SZ.de/jab
Social Media 1000 Likes und trotzdem einsam

Social Media

1000 Likes und trotzdem einsam

Während sich Menschen in sozialen Medien mehr und mehr vernetzen, nimmt das Gefühl der Einsamkeit zu.   Von Johannes Kuhn

Zur SZ-Startseite