Algorithmen Facebook fängt den Nutzer in seiner eigenen Weltanschauung ein

Wie genau der Facebook-Algorithmus funktioniert, bleibt ein Geheimnis.

(Foto: REUTERS)

Das soziale Netzwerk optimiert mal wieder seinen Algorithmus - und wirft damit ethische Fragen auf.

Von Johannes Boie

Etwa ein Siebtel der Weltbevölkerung verwendet Facebook täglich. Der Erfolg verpflichtet zur Verantwortung, würde man meinen. Facebook teilt diese Wahrnehmung, vor allem in wirtschaftlicher Hinsicht: noch mehr Nutzer, noch mehr Umsätze, noch mehr Wachstum, die Gesetze des Marktes kennen keine Obergrenze.

Deshalb unternimmt die Firma alles, um die Nutzer zufriedenzustellen. Wer auf Facebook ist, soll optimal unterhalten werden. Regelmäßig schrauben die Techniker an dem Algorithmus, der den individuellen Newsfeed eines Nutzers, also schlicht das, was ein Nutzer auf Facebook sieht, erstellt. Das hat Facebook nun erneut getan.

Zwei Pole des Nutzerverhaltens werden ausbalanciert: Interesse und Engagement

Künftig sollen zwei Faktoren darüber bestimmen, ob ein Nutzer einen bestimmten Text oder ein Video oder ein Bild zu Gesicht bekommt: Das ist einerseits die Wahrscheinlichkeit, mit der der Nutzer diese Information sehen möchte. Und andererseits die Wahrscheinlichkeit, mit der ein Nutzer die Information kommentieren, anklicken oder weiterverbreiten wird. Beides kann die Software recht zuverlässig berechnen. Facebook balanciert damit zwei Pole des Nutzerverhaltens neu aus, nämlich einerseits reines Interesse, andererseits Engagement - also besagtes Teilen, Kommentieren und so weiter.

Das alles wäre nicht weiter bemerkenswert, wenn diese Maßnahmen nicht Wirkung zeigen würden, und zwar einerseits für das erwähnte Siebtel der Weltbevölkerung, dessen Wissen, dessen Weltbild, dessen Stimmung maßgeblich dadurch beeinflusst wird, was es auf Facebook zu sehen bekommt. Andererseits sind all diejenigen von den Änderungen betroffen, die Inhalte auf Facebook verbreiten, neben Nutzern vor allem Redaktionen und Verlage. Für sie gelte, so heißt es in der Pressemitteilung von Facebook locker: Manche könnten mehr Besucher erwarten, andere allerdings weniger. Es gibt Redaktionen, vor allem in den USA, für die es das Ende bedeuten kann, wenn Facebook den Daumen senkt.

"Google sollte seine Nutzer bezahlen"

Facebook und Google bestimmen, wie Menschen ihre Welt wahrnehmen. Doch ihre Algorithmen halten sie streng geheim. Juraprofessor Frank Pasquale fordert mehr Transparenz - und staatliche Regulierung. Von Hakan Tanriverdi mehr ... Interview

"Teile dieses Bild, wenn du auch gegen Nazis bist"

Gegen Vorwürfe dieser Art wehrt sich Facebook, indem die Firma darauf beharrt, dass die Bedingungen - auch wenn sie sich änderten - ja grundsätzlich zu einem Zeitpunkt für alle Nutzer und Redaktionen gleich seien. Tatsächlich zeigt die Vergangenheit, dass die Anpassungen am Algorithmus das Angebot für die einzelnen Nutzer verbessern und gleichzeitig erstaunlich zuverlässig unerwünschten Spam aussortieren können.

Regelmäßig, so auch dieses Mal, wertet Facebook auch Seiten ab, die Nachrichten, oder was dort darunter läuft, mit Zusätzen wie "Was als nächstes geschah, wirst du nicht glauben können" überverkaufen oder die mit Sätzen wie "Teile dieses Bild, wenn du auch gegen Nazis bist" den Nutzer zum Engagement drängen.

"Hat dieser Post auf Dich wie Werbung gewirkt?", fragt Facebook einfühlsam

Für Facebook ist das freilich kein Kunststück, sondern Berechnung. Für die digitale Firma ist das Produkt - facebook.com - gleichbedeutend mit ihrer Marktforschung. Wo ein Autohersteller viel Geld ausgeben muss, um herauszufinden, ob dem Kunden Enzian-, Himmel- oder Ultramarinblau besser gefällt, beobachtet Facebook seine Kunden einfach live. Der Konzern fragt seine Kunden immer öfter auch direkt Fragen wie diese: "Hat dieser Post auf dich wie Werbung gewirkt?" Nutzer können dann auf einer Skala von eins bis fünf zustimmen oder verneinen.

Das Engagement der Nutzer ernster zu nehmen, ist eine Strategie, auf die Facebook in letzter Zeit offenbar vermehrt setzt. Zumindest englischsprachige Redaktionen bekommen derzeit ein neues Werkzeug an die Hand, um zum Beispiel eine Nachricht über Israel nur oder wenigstens bevorzugt Menschen zu präsentieren, die sich für den Nahen Osten interessieren. Auch diese Möglichkeit wird den Erfolg der Plattform verstärken, wirft aber dieselben ethischen Fragen auf wie die Anpassung des Algorithmus. Zum Beispiel die, ob Menschen so nicht noch mehr in ihrer eigenen Filterblase gefangen bleiben. In einer Zeit, in der die Gesellschaft in radikale Positionen auseinanderdriftet, ist eine neue Technologie, die stets die eigene Meinung bestätigt, wohl kaum das, was der Welt hilft.

Wenn Algorithmen Vorurteile haben

Auch Technologie kann rassistisch oder sexistisch sein. In einer zunehmend digitalisierten Welt wird das zum Problem. Von Sara Weber mehr...