Erlangen:Der Schlüssel zu Emotionen

Lesezeit: 2 min

Forscher entwickeln eine App, die Autisten im Alltag helfen kann

Wer schaut mich an? Ist das ein trauriger oder ein fröhlicher Mensch? Das Einschätzen eines Gegenübers fällt Autisten oft schwer. Ihnen könnte eine Software helfen, die Jens Garbas vom Erlanger Fraunhofer-Institut entwickelt hat. Mit mehr als 30 000 Bildern, die Menschen unterschiedlichen Alters, Geschlechts und mit verschiedenen Gesichtsausdrücken zeigen, wurde das Programm gefüttert. Dazu gehören Mimiken wie nach oben stehende Mundwinkel oder weit aufgerissene Augen. "Mit diesen Gefühlsausdrücken konnte der Computer lernen, welche Merkmale für bestimmte Gefühle stehen", sagt Garbas, Gruppenleiter für intelligente Systeme am Fraunhofer-Institut. Die Position von Augen, Nase und Mund sowie Neigung und Drehung des Kopfes analysiert das Programm und filtert ein Gefühl heraus.

Ärger, Trauer, Freude und Überraschung sowie generell positive und negative Emotionen werden so erkannt. In der Anwendungsphase vergleicht der Rechner die gelernten Merkmale mit einem realen Gegenüber. "Emotionen können so auch bei neuen, unbekannten Gesichtern erkannt werden", sagt der Wissenschaftler. Shore - kurz für: Sophisticated high speed object recognition engine - heißt die Software, die bei der Gefühlserkennung eine Trefferquote von 94 Prozent hat. Die Software wurde bereits in eine Datenbrille eingebaut. Der Träger einer solchen Brille sieht verschiedene Balken, dahinter emotionale Begriffe. Lächelt die angeschaute Person, füllt sich beispielsweise der Balken für "Happy" mit roter Farbe.

"Für einen Autisten ist es anstrengend, gleichzeitig nach unten zum Balken zu schauen und dem Gegenüber zu antworten. Dieses Multitasking ist schwierig", erklärt Isabel Dziobek, Leiterin des Instituts für Psychologie an der Berliner Humboldt-Universität. Sie arbeitet mit diesem Programm und möchte es vereinfachen. Außerdem sei ein Problem, dass sich Gesichtsausdrücke in Sekundenschnelle ändern - und damit das, was die Datenbrille anzeigt. Gut erkennt das Programm aber Basis-Emotionen wie Freude und Angst. Sich auf diese Grund-Emotionen zu fokussieren, üben Autisten in Trainingsprogrammen.

"Andere Gefühle wie Eifersucht oder Schuld sind schwieriger zu erkennen, zumal sie eine stärkere, individuelle Note haben", erklärt die Wissenschaftlerin. Auf 40 emotionale Gesichtszüge konzentriert sich ein anderes Trainingsprogramm.

Bei einer Übung mit der neuen App sollen Videoaufzeichnungen nachgemacht werden. "Dieses Spiel soll Autisten helfen, Gefühle anderer zu erkennen", sagt Dziobek. Bei einer weiteren Aufgabe müssen Gesichtshälften zusammengesetzt werden, bis ein stimmiges Bild etwa für Freude entsteht. Aber die Autismus-Forschung mit den neuen Programmen stecke noch in den Anfängen. "Es wird Jahre dauern, bis konkrete Ergebnisse vorliegen", betont die Berliner Wissenschaftlerin.

Das Programm des Erlanger Fraunhofer-Institut könnte nicht nur für Autisten nützlich sein. Garbas sieht weitere Anwendungsmöglichkeiten, etwa um zu messen, wie Menschen auf Werbefilme reagieren: "Wenn Zuschauer danach böse schauen, hat der Spot seine Wirkung verfehlt." Auch in Einkaufszentren lasse sich das Programm einsetzen. Denn die App zeigt zusätzlich Geschlecht und ungefähres Alter an. So erfährt ein Ladenbesitzer beispielsweise, ob Mann, Frau, Jugendlicher oder Senior ins Schaufenster guckt - und ob diese potenziellen Kunden tatsächlich die gewollte Zielgruppe sind. Denkbar ist zudem ein Einsatz im Auto. Die Augenfeinanalyse registriert, wenn die Gefahr besteht, dass der Fahrer einschläft. Eines aber kann Jens Garbas Software nicht: konkrete Menschen identifizieren. Alle Berechnungen würden nur in der App stattfinden, es würden keine Daten gespeichert. Rückschlüsse auf Nutzer seien damit ausgeschlossen, versichert er.

© SZ vom 28.08.2015 / Birgit Vey, epd - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: