bedeckt München 17°

Soziales Netzwerk:Facebook-Mitarbeiter halten angeblich konservative Stimmen zurück

Facebook Quartalszahlen

Facebook steht wegen angeblicher Manipulation seiner Nachrichten in der Kritik.

(Foto: dpa)
  • Facebook gibt gerne vor, eine neutrale Plattform zu sein und will als Ort der Objektivität wahrgenommen werden.
  • Die Webseite Gizmodo hält diesen Eindruck für irreführend.
  • Facebook ist in Teilen ein journalistisches Angebot. Viele Nutzer sind sich dessen aber nicht bewusst - und schätzen angezeigte Inhalte womöglich falsch ein.

Es geht um eine kleine Box auf Facebook. Sie ist eines von vielen Experimenten, die das soziale Netzwerk kontinuierlich durchführt, um seine 1,65 Milliarden Nutzer noch ein paar Sekunden länger im Bann zu halten und ihnen noch ein paar Klicks mehr zu entlocken.

Über die Box reden seit Montag viele Amerikaner. Sie ist ein Paradebeispiel dafür, welches Potenzial der Manipulation und Parteinahme in Facebook liegt - und wie gern der Konzern verschweigen würde, welchen Einfluss er hat.

Facebook trending

So sieht die Trending-Box aus.

(Foto: Facebook)

Wer Facebook im Browser aufruft, muss nach rechts oben schauen, wer die App auf dem Smartphone öffnet, auf die Lupe tippen. Dort findet sich jeweils der "Trending"-Bereich (für Nutzer, die Facebook in der englischen Version nutzen). Eine Sammlung von Artikeln mit Nachrichtenwert, mit denen sich Nutzer auf Facebook gerade intensiv beschäftigen. Zum Beispiel: Justin Bieber diskutiert über sein Gesichts-Tattoo, Bernie Sanders spricht über Donald Trump.

Ein Team aus Kuratoren entscheidet mit - ganz neutral?

Zwei Berichte ( hier und hier) der Webseite Gizmodo beschreiben, was sich hinter der Funktion verbirgt: eine Kombination aus Algorithmen und einem Team aus Kuratoren, das sind in diesem Fall junge Journalisten, die über externe Firmen für Facebook arbeiten. Sie fassen die angesagten Artikel zusammen, verpassen ihnen neue Überschriften - und haben offenbar Einfluss darauf, was Nutzer in der Box zu sehen bekommen. Einige ehemalige Kuratoren behaupten auf Gizmodo nun anonym, dass dieses Team Artikel zurückhält, die politisch konservative Standpunkte vertreten. Und das mitten im US-Wahlkampf.

Facebook gibt vor, eine neutrale Plattform zu sein, der daran gelegen ist, dass Nutzer auch die "andere Seite" einer Geschichte mitbekommen, wie es erst kürzlich in einem Video des Konzerns hieß (auch wenn Zuckerberg selbst erstaunlich politisch auf tritt): Facebook als vermeintlich neutraler Ort, als Plattform ohne politisches Eigeninteresse, offen für das in den USA hochgehaltene Prinzip der Meinungsfreiheit.

Das sind die Vorwürfe gegen Facebook

Die Vorwürfe der Kuratoren lauten: Erstens entschieden sie auch nach eigenen politischen Vorlieben, welche Geschichten in die Trending-Box aufgenommen werden. Das soll dazu geführt haben, dass manche Nachrichten nicht auftauchten, die vor allem Nutzer mit konservativem Weltbild zusagen könnten. Die Quelle, mit der ein Gizmodo-Reporter gesprochen hat, bezeichnet sich selbst als konservativ. Eine weitere Person habe bestätigt, dass Themen tendenziell weggelassen würden, wenn sie aus konservativer Sicht beleuchtet würden. Die Leser würden demnach überproportional Artikel mit liberalem oder linken Drall sehen. (Der Guardian sprach mit einem anderen Mitglied des Facebook-Teams, das die Beobachtungen des konservativen Kollegen nicht bestätigen konnte.)

Datenschutz

So löschen Sie Ihren Facebook-Account

Zweiter Vorwurf: Geschichten, die unter normalen Umständen nicht in den Trending-Bereich aufgenommen worden wären, wurden in einigen Fällen dennoch gezielt eingespeist. Als Beispiel werden Geschichten über den Krieg in Syrien genannt, und die Proteste rund um die vor allem afroamerikanische Bürgerrechtsbewegung "Black Lives Matter" und Eilmeldungen.

Drittens sollen die Kuratoren dazu aufgefordert worden sein, keine Geschichten über Facebook selbst im Trending-Bereich anzeigen zu lassen.

Wenn das Silicon Valley Inhalte kontrolliert

Die Veröffentlichung alarmiert die konservativen Nachrichtenseiten, die lautstark protestierten. Auch die einflussreiche Webseite Drudge Report titelte stundenlang mit einem Verweis auf die Gizmodo-Geschichte. Breitbart News sprach davon, eine solche Benachteiligung schon " seit langem vermutet" zu haben. Die Berichte seien eine "entscheidende Erinnerung, wie gefährlich es sein kann, wenn Silicon Valley Inhalte kontrolliert", schrieb auch der Journalist und Snowden-Enthüller Glenn Greenwald, der selbst die politische Rechte in den USA regelmäßig heftig attackiert.

Facebook selbst dementiert die Anschuldigungen: "Facebook ist eine Plattform für Menschen und Perspektiven des gesamten politischen Spektrums." Strenge Richtlinien zur Neutralität erlaubten es nicht, bestimmte Standpunkte zu unterdrücken oder zu priorisieren. Verstießen Mitarbeiter dagegen, sei das ein Kündigungsgrund. Es gebe "keinen Beweis", dass die Vorwürfe zuträfen.

"Wir wurden wie Roboter behandelt"

Twitter Twitter geht auf Facebook los
Social Media

Twitter geht auf Facebook los

Die zwei großen sozialen Netzwerke streiten sich öffentlich. Der Grund: Facebook will Twitter einfach nicht beim Namen nennen.   Von Sara Weber

Allerdings behauptet Gizmodo an keiner Stelle, dass die Beeinflussung vom Konzern Facebook als Ganzem ausgehe. Der Artikel legt nahe, dass das Kuratoren-Team selbst entscheiden kann, was eine wichtige Nachricht ist - und was nicht. Eine einflussreiche Position, in der möglicherweise Mitarbeiter ohne ausreichende Anleitung arbeiten. Die anonymen ehemaligen Kuratoren beschweren sich, ihre Arbeitsbedingungen als journalistische Hilfskräfte seien mies gewesen, sie hätten im Konzern einen besonders niedrigen Status gehabt: "Wir wurden wie Roboter behandelt."

Die Berichte sind auch deshalb interessant, weil Facebook sich bemüht hat, die Existenz des Kuratoren-Teams unerwähnt zu lassen. Als im Help-Center gefragt wurde, wie die Trending-Funktion denn operiere, antwortete der Konzern zwar. Aber keine seiner Antworten ließ erahnen, dass überhaupt Menschen bei der Entscheidung eine Rolle spielen.

Schon als im Januar eine Debatte entbrannte, warum Facebook-Mitarbeiter das soziale Netzwerk Twitter in Überschriften im Trending-Bereich nur als "soziales Netzwerk" aufführten und nicht beim Namen nannten, war die Antwort des Konzerns nebulös. Von einem "Review Team" war die Rede, das aber lediglich sicherstellen solle, Themen akkurat zusammenzufassen. Dass es Nachrichten aussortieren könne, war unklar.

Journalistische Kriterien sind überprüfbar, die von Facebook nicht

Das Auswählen (und damit Nichtauswählen) von Nachrichten kann ein Problem darstellen. Es gehört zur Kernfunktion des Journalismus, zu entscheiden, zu bestimmten Themen zu recherchieren - und zu anderen nicht. Gründe fürs Weglassen könnten unter anderem fehlende Relevanz für die Leserschaft oder Kapazitäten sein. Zudem ist es Aufgabe der Medien, Geschichten zu recherchieren, die nicht "trenden". Dass Artikel von Facebook-Mitarbeitern "eingespeist" werden, nennen Journalisten Agenda-Setting. Themen werden recherchiert und prominent platziert, weil sie es aus deren Sicht wert sind, erzählt zu werden.

All das sind journalistische Kriterien: überprüfbar, kritisierbar. Dass aber ein Konzern wie Facebook auch journalistische Entscheidungen trifft, kommuniziert er nicht offen.

Facebooks Äußerungen sind schwammig - aus Prinzip. Denn das Silicon Valley genießt einen Vertrauensvorschuss, und das soll wohl auch soll bleiben. Wie die New York Times schreibt, gehen in den USA nach Angaben der Pew-Meinungsforscher satte 65 Prozent davon aus, dass Medien einen negativen Einfluss auf das Land haben. Bei Technologie-Firmen liegt diese Zahl bei 17 Prozent. Klar, in welche Schublade Facebook von seinen Nutzern gesteckt werden will.

Linktipp:

In diesem Artikel schreibt der Kommunikationswissenschaftler Tarleton Gillespie sehr lesenswert über künstliche Intelligenz und ihre Funktion für Facebook, zum Beispiel bei den Trending Topics. Hinweis: Das Blog gehört zu Microsoft.

Künstliche Intelligenz Wie Google und Facebook Computern Denken beibringen
Künstliche Intelligenz

Wie Google und Facebook Computern Denken beibringen

Die Unternehmen investieren Hunderte Millionen, um künstliche Intelligenz zu erforschen. Maschinen sollen sehen, hören und verstehen - besser als Menschen.   Von Jannis Brühl und Hakan Tanriverdi