Social-Media-Gericht:Entscheidungen, die Facebook das fürchten lehren könnten

Lesezeit: 3 min

Daumen hoch: Die ersten fünf Entscheidungen des "Facebook Oversight Board" zeigen, dass das Gremium keine Angst hat, seinen Auftraggeber zu kritisieren. (Foto: Jeff Chiu/AP)

Bald soll Facebooks "Oversight Board" urteilen, ob Donald Trump wieder posten darf. Erste Entscheidungen des Gremiums zeigen nun: Die Richter haben keine Angst, ihren Auftraggeber in die Schranken zu weisen.

Von Max Muth

Vier zu eins - so lautet das vorläufige Fazit der Entscheidungen des Facebook Oversight Boards (FOB). Vier zu eins gegen Facebook, wenn man so will, denn vier Mal entschied das Gremium aus Menschenrechtlern, Juristen und ehemaligen Politikern anders als Facebook. Man könnte auch sagen, das Gremium macht seinen Job. Denn als Unternehmenschef Mark Zuckerberg im September 2019 das außerordentliche Facebook-Gericht ankündigte, sagte er, es solle "eine Art Fürsprecher für die Community" sein. Er meint die vielen Facebook-Nutzer, die oft irritiert sind, welche Beiträge und Konten das Unternehmen sperrt und welche nicht.

Die ersten durch das Gremium verhandelten Fälle zeigen deutlich, was vielen von Facebooks eigenen Entscheidungen oft abging: Kontext. So entschied es im Fall 2020-002-FB-UA, dass der Konzern das Posting eines myanmarischen Nutzers zu Unrecht entfernt hatte. Er hatte das bekannte Bild eines toten syrischen Kindes am Strand geteilt, versehen mit den Worten: Etwas stimme "mit diesen Muslimen" nicht, die wegen Mohammed-Karikaturen in Frankreich ausrasteten, aber die Behandlung der muslimischen Uiguren in China teilnahmslos hinnähmen. Facebook hatte das Posting mit Verweis auf Regeln gegen Hassrede entfernt, da es behauptet habe, etwas "stimme mit Muslimen nicht". Das FOB dagegen argumentiert nun, Facebook habe den burmesischen Text falsch übersetzt, es sei um "diese" Muslime gegangen, die sich auf bestimmte Art und Weise verhielten, nicht um alle. Zudem bediene sich das Posting keiner in Myanmar bekannten Ressentiments gegenüber Muslimen und sei als politische Meinungsäußerung zu verstehen. Facebook muss den Post also wieder sichtbar machen.

"Gefährliche Person" Joseph Goebbels

Derart ausführliche und kontextbezogene Erklärungen dürften Balsam für die Seelen aller Nutzer sein, die an den oft nichtssagenden Standardnachrichten verzweifelten, die Facebook nach Löschungen versendet. In einem ähnlichen Fall ordnete das FOB an, einen Beitrag wiederherzustellen, in dem ein Nutzer ein (falsches) Goebbels-Zitat gepostet hatte, um auf Parallelen zu Donald Trumps Präsidentschaft hinzuweisen. Facebook hatte das Posting entfernt, ohne zu erklären, warum. Das Unternehmen verwies gegenüber dem FOB auf eine Liste "gefährlicher Individuen", die auf Facebook nicht verherrlicht werden dürften. Jeder Beitrag, der nicht explizit mache, dass man anderer Auffassung sei, gelte dabei als Unterstützung. Das Board hält die Argumentation einerseits für zu vereinfacht, andererseits kritisiert es, dass diese Liste von "gefährlichen Personen" nicht öffentlich verfügbar ist.

Die ausführlichen Erklärungen der Fälle auf der Web-Seite des Oversight Boards zeigen, wie grobschlächtig andererseits die Kriterien sind, die Facebook selbst bei seiner Entscheidungsfindung bei Löschverfahren anlegt. Das passiert nicht ohne Grund: Zum einen will das Unternehmen es seinen menschlichen Moderatoren so einfach wie möglich machen, zum anderen arbeitet es darauf hin, diese menschlichen Moderatoren, abzuschaffen, sobald es geht. Selbstlernende Algorithmen sind deutlich günstiger.

Ein Ziel, das das Aufsichtsgremium in einer weiteren Entscheidung explizit kritisierte. Dabei ging es um eines der größten Facebook-Aufregerthemen überhaupt: um nackte Brüste. Während die Nippel von Männern auf der Plattform hemmungslos gezeigt werden dürfen, verbietet Facebook das Zeigen weiblicher Brustwarzen grundsätzlich. Einzige Ausnahme: Wenn die Beiträge im Zusammenhang mit Brustkrebs stehen. Ein brasilianischer Nutzer hatte einen Beitrag mit acht Bildern mit Symptomen der Krankheit auf Instagram gepostet. Der zuständige Algorithmus übersah jedoch den in dem Bild platzierten portugiesischen Hinweis auf die Krankheit und löschte das Posting. In dieser Entscheidung des Gremiums findet sich ein Satz, den Facebook überhaupt nicht gern hören dürfte. Er lautet: "Maßnahmen die ausschließlich auf Automatisierung ohne menschliche Kontrolle zurückgehen, sind problematisch für freie Meinungsäußerung."

Kritik an Lösch-Algorithmen

Mit den ersten fünf Entscheidungen hat das "Facebook Oversight Board" eine Sache deutlich gemacht: Es ist, wie von Zuckerberg angekündigt, eine unabhängige Macht, und hat offensichtlich keine Angst davon, Entscheidungen seines Auftraggebers in Frage zu stellen oder gar zu kritisieren. Unklar ist bislang noch, wie ernst Facebook die Empfehlungen nehmen wird. Die konkreten Entscheidungen des Gremiums zu Löschungen sind für das Unternehmen direkt bindend. Kritik an unklaren Regeln oder automatisierten Entscheidungen haben dagegen nur Empfehlungscharakter.

Die Entscheidungen von heute sind für das FOB jedoch nur das Aufwärmen. In den kommenden drei Monaten muss das Gremium entscheiden, ob der ehemalige US-Präsident Donald Trump sein Konto zurück erhält. Facebook hatte es am 7. Januar nach dem Sturm auf das US-Kapitol in Washington DC gelöscht.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusOnline-Werbung
:Das dunkle Herz des Internets

Hinter dem Web, das wir sehen, liegt eine Welt automatisierter Digital-Werbung. IT-Forscher Tim Hwang behauptet: Das System ist auf falschen Zahlen und Betrug gebaut. Ein Crash hätte Folgen für uns alle.

Interview von Jannis Brühl

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: