bedeckt München 13°
vgwortpixel

Emotionserkennung:"Emotionen" sind schwer definierbar

Ethische Fragen rund um Intimität und Privatsphäre werden in Europa und den USA ausführlich diskutiert. "Opt-In" - also zustimmungspflichtig - müsse der Einsatz sein, das ist der derzeitige Konsens. Niemand möchte, dass seine Gefühle ohne sein Wissen analysiert werden.

Allerdings gibt es auch Zweifel, ob dies gerade überhaupt die richtige Debatte ist. Designerin Pavliscak warnte auf der SXSW: "Meine größere Sorge ist, dass die ausgewerteten Informationen nicht nuanciert, zweideutig und kontextualisiert genug sein werden, um wirklich hilfreich bei der Emotionserkennung zu sein." Denn: "Es könnte sein, dass wir die Daten überschätzen, nur weil wir sie problemlos sammeln können."

Konkret geht es um die Frage der Kategorisierung. Emotionen sind nicht nur komplex, es gibt nicht einmal eine einheitliche Definition für sie. Oder ein detailliertes Verständnis, wie sie messbar sind und ob es sich wirklich um etwas "universell Menschliches" handelt, das unabhängig vom kulturellen Kontext existiert.

Konzepte wie die allgemeinen menschlichen "Basisemotionen" (Freude, Wut, Ekel, Verachtung, Traurigkeit, Furcht, Überraschung), wie sie der Psychologe Paul Ekman nennt, die aus Gesichtsausdrücken abgeleitet werden können, sind schon lange umstritten. Dennoch ziehen IT-Entwickler die Basisemotionen oft heran, um ihrer Software Kategorien für Emotionserkennung einzuimpfen.

Aber auch eine Maschine kann Gefühle falsch einordnen und entsprechend falsch reagieren. "Wut" hat eben nicht überall die gleiche komplexe Bedeutung, nur weil es das Wort in mehreren Sprachen gibt. Doch weil IT-Großsysteme an der Mensch-Maschine-Schnittstelle auch unser Verhalten trainieren, könnten sich in einem möglichen Szenario tatsächlich Emotionskategorien vereinheitlichen. Kulturelle Nuancen und Komplexitäten würden dann verschwinden, weil sie in den Datenbanken keine Entsprechung haben.

Rüde Roboter

In diesem Zusammenhang machte 2017 ein Chat-Screenshot die Runde. Auf der einen Seite war dort der Google-Assistent zu sehen, der auf die Aussage "Ich bin traurig" antwortete: "Ich wünschte, ich hätte Arme, damit ich dich umarmen könnte." Der Chatbot Alisa, ein Produkt der russischen Firma Yandex, antwortete auf die gleiche Feststellung: "Niemand hat behauptet, dass es im Leben um Spaß geht."

Sind solche interkulturellen Differenzen anachronistisch oder ein Vorteil? Aleksandra Przegalinska, Professorin für Philosophie der Künstlichen Intelligenz am Massachusetts Institute of Technology (MIT), stellte auf der SXSW Befragungen von Chatbot-Nutzern vor. Ihr Fazit: Menschen vertrauen Maschinen dann, wenn sie nicht zu menschenähnlich sind, aber gleichzeitig eine gewisse Form von persönlicher Integrität simulieren. Sie dürfen dem Nutzer also nicht nach dem Mund reden.

Doch ein Google-Assistent ist eben ein Google-Assistent: Seine symbolische Umarmung drückt kein maschinelles Einfühlungsvermögen aus, sondern bildet einen Software-Mechanismus ab, der den Eindruck emotionaler Nähe erzeugen und den Dialog ins Positive zwischen Mensch und Maschine wenden soll. Was den Menschen als Kreatur, die sich Dinge gerne als Kreaturen vorstellt, wohl nicht daran hindern wird, es mit Gefühlen zu verwechseln.

© SZ.de/jab
Social Media 1000 Likes und trotzdem einsam

Social Media

1000 Likes und trotzdem einsam

Während sich Menschen in sozialen Medien mehr und mehr vernetzen, nimmt das Gefühl der Einsamkeit zu.   Von Johannes Kuhn

Zur SZ-Startseite