Netzkolumne:Bitte lächeln

Lesezeit: 2 Min.

Was wohl hinter den VR-Brillen vorgeht? Tech-Unternehmen wollen die Gesichtsausdrücke mithilfe winziger Kameras und Sensoren in den Virtual-Reality-Brillen analysieren. (Foto: imago images/Westend61)

Tech-Unternehmen wollen die Gesichter von Internet-Nutzern analysieren, um ihnen zur Gemütslage passende Empfehlungen zu präsentieren. Wollen wir das wirklich?

Von Michael Moorstedt

Hört man sich bei den Kennern der Zukunft um, wie ebenjene aussehen wird, ist die Antwort darauf momentan so klar wie einsilbig: Metaverse. Umso überraschender ist, dass von diesem Metaverse momentan nicht viel mehr existiert als ein bunter Werbefilm, der Mark Zuckerberg vor allerhand sympathischen Zeichentrickfiguren zeigt. Mal im Weltraum, mal in einer Dschungelumgebung. Hier wurde wohlgemerkt keine echte Technologie gezeigt, stattdessen entstammt die Vision einem Special-Effects-Studio.

Werbung könnte künftig noch stärker personalisiert sein als heute

Viel klarer ist dagegen bereits, wie Meta seine virtuelle Welt zu Geld machen will: Mit zielgerichteter Werbung und gesponserten Inhalten, die das auf Werbung beruhende Geschäftsmodell eins zu eins widerspiegeln. Aus wirtschaftlicher Sicht ist das sinnvoll. Immerhin nimmt man auf diese Weise knapp 85 Milliarden Dollar pro Jahr ein. "Für uns ist das Geschäftsmodell im Metaverse kommerziell orientiert", sagte Nick Clegg, ehemals britischer Vize-Premierminister und heutzutage Cheflobbyist bei Meta kürzlich in einem Interview. "Anzeigen spielen dabei ganz klar eine Rolle."

Mehr vom immer Gleichen also, doch in einer virtuellen Umgebung könnte die Werbung sogar noch stärker personalisiert sein, als es in den bestehenden Meta-Produkten der Fall ist. Ein ganzer Schwung von Patenten, die dem Unternehmen in der letzten Zeit erteilt wurden, gibt jedenfalls Anlass zur Sorge. Vorgestellt werden etwa Technologien zum Augen- und Gesichtstracking mittels winziger Kameras und Sensoren im VR-Headset. Pupillenbewegungen, Körperhaltungen oder eine gerümpfte Nase sind nur einige der menschlichen Ausdrucksformen, die Meta für den Aufbau seines Metaversums nutzen möchte. Der Körper der Nutzer wird zum Ausgangspunkt neuer Einnahmequellen.

Auch der ehemalige Google-Mitarbeiter Alan Cowen will die Gesichter von Internet-Nutzern genau analysieren. Allerdings nicht, um damit Geld zu verdienen. Man müsse beginnen, für das Wohlbefinden der Nutzer zu sorgen und nicht für immer mehr Interaktion und Engagement, so Cowen. Mit seinem Start-up namens Hume AI will er anderen Unternehmen dabei helfen, das Internet zu einem menschenfreundlicheren Ort zu machen, indem die Gefühle der Nutzer ausgewertet werden. Affective Computing lautet der Fachbegriff.

Die Gestressten bekommen Walgesänge zu hören, die Verschnarchten Uptempo-Beats

Das dafür nötige Mittel ist, was auch sonst, eine KI-Software. Die künstliche Intelligenz auf der Hume-Plattform sei an Hunderttausenden Gesichts- und Stimmausdrücken aus der ganzen Welt trainiert und könne so auf die wahren Gefühle der Nutzer reagieren und deren emotionale Bedürfnisse besser berücksichtigen. Ganze 28 unterschiedliche Gefühlsnuancen habe man identifiziert.

Ein mögliches Anwendungsszenario sei, dass Algorithmen für digitale Assistenten Emotionen in unseren Gesichtern erkennen und dann Empfehlungen für entsprechende Inhalte aussprechen könnten. Die besonders Gestressten bekommen Walgesänge zu hören, die Verschnarchten Uptempo-Beats. Vorstellbar sei auch, so Cowen, dass Social-Media-Unternehmen ihren Feed an die Stimmung der Nutzer anpassen. Immer gut ausgepegelt statt ständig aufgeregt.

Klingt doch eigentlich ganz nett. Bis auf die Tatsache, dass wohl nur wenige Menschen begeistert sind, wenn Tech-Unternehmen Einblick in ihre Gefühlswelt bekommen. Und dann wäre da noch das nicht ganz triviale Problem, dass dieses Affective Computing nach Ansicht von zahlreichen Experten ungefähr so wissenschaftlich valide ist wie Zuckerperlen-Globuli. In einer Meta-Studie kamen die Autoren zu dem Schluss, dass es keinerlei Beweise dafür gibt, dass der emotionale Zustand eines Menschen anhand seines Gesichtsausdrucks vorhergesagt werden kann - völlig gleichgültig, ob nun ein anderer Mensch oder eine Maschine die Analyse vornimmt.

Das Gleiche gilt freilich auch für Metas Ambitionen, mit den Gesichtsausdrücken Geld zu verdienen. Es sind die gleichen Mittel, nur unterschiedliche Dystopien.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusSpotify, Apple und Co.
:Lasst mich in Ruhe

Mal bin ich traurig, mal bald taub: Wie Musik-Streamingdienste uns auslesen und leider vor allem: bevormunden.

Von Andrian Kreye

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: