Interne Facebook-Aufsicht:Gewaltenteilung, Goebbels und andere Feinheiten

Ein Smartphone liegt auf einer Computerplatine und zeigt das Logo von Facebook Berlin 20 03 2018

Bei Facebook kontrolliert ein Team von 30 Experten die strittigen Entscheidungen von mehr als 20 000 "Content-Moderatoren" des Konzerns

(Foto: Thomas Trutschel/photothek.net; via www.imago-images.de/imago images / photothek)

Facebooks oberste Inhaltswächter stellen die ersten Fälle vor, mit denen sie sich beschäftigen werden. Offenbar will das Gremium sein Mandat recht weit auslegen.

Von Philipp Bovermann

Es geht um Mordaufrufe gegen Franzosen. Um Kirchen in Aserbaidschan. Um nackte Brüste. Und eigentlich geht es bei den ersten Fällen, die Facebooks im Frühjahr zusammengetretenes "Oversight Board" am Dienstag veröffentlicht hat, auch um die Frage einer Gewaltenteilung im Internet. Es ist der erste Versuch des weltumspannenden Netzwerks, über Kulturgrenzen hinweg quasi-rechtliche Standards für die Kommunikation im Internet zu etablieren.

Das Oversight Board ist ein internationales Gremium, das im Auftrag von Facebook dem sozialen Netzwerk einen ethischen Kompass für dessen Umgang mit Inhalten verleihen soll, als eine Art Verfassungsgericht. Ihm gehören renommierte Juristen, Menschenrechtsaktivisten und zum Beispiel die ehemalige dänische Ministerpräsidentin Helle Thorning-Schmidt an. Das Team aus 30 Experten kontrolliert eine kleine Zahl strittiger Entscheidungen der mehr als 20 000 sogenannten Content-Moderatoren des Konzerns. Diese Angestellten prüfen Inhalte und löschen sie, falls sie gegen die Community-Richtlinien verstoßen, also die Hausregeln, die der Konzern sich selbst gegeben hat. Die Richtlinien sind sehr offen gehalten, weshalb die Content-Moderatoren - Berichten zufolge im Minutentakt und unter teils traumatisierenden Bedingungen - immer wieder weitreichende, ethisch und rechtlich komplexe Entscheidungen treffen müssen. Mit welchen Fällen sich das Board beschäftigen will, ist ihm selbst überlassen.

Der möglicherweise erwartbarste der ersten sechs Fälle zielt direkt in den Kern des Problems. Eine Collage von Fotos auf der zu Facebook gehörenden Fotoplattform Instagram wurde gelöscht. "Fünf der Fotos zeigen deutlich erkennbare und nicht abgedeckte weibliche Brustwarzen", heißt es in der Erläuterung des Falls. Das verstößt gegen Facebooks "Richtlinie zu Nacktdarstellung und sexuellen Handlungen von Erwachsenen" (die deshalb so heißt, weil Darstellungen von sexuellen Handlungen mit Kindern ohnehin fast überall auf der Welt bereits nach nationalem Recht verboten sind). Der Nutzer, der Widerspruch gegen die Löschung eingelegt hat, verweist darauf, der Beitrag sei im Rahmen einer Informationskampagne zu Brustkrebs erschienen. Einige der Fotos zeigen Symptome der Erkrankung.

Die Frage, über die das Oversight Board zu entscheiden hat: Kann man sekundäre Geschlechtsmerkmale auf nicht-sexuelle Art zeigen und betrachten? In Europa würden die meisten Menschen sie wohl mit Ja beantworten. Weite Teile der restlichen Welt hingegen sehen das vermutlich anders. Facebooks Maxime lautet, sich mit möglichst wenigen Staaten Ärger einzuhandeln - man will ja keinen Markt verlieren. Was sagt nun das ineternationale Gremium?

Die Facebook-Richter versuchen, ihr Mandat recht weit auszulegen

Entscheidend ist in diesem Fall, dass der Kontext sich gegenüber dem, worauf die Richtlinie abzielt, verschoben hat: aus der Erotik in den der Medizin. Auch in den anderen Fällen ist es der Kontext, durch den Entscheidungen kompliziert werden. Da ist etwa der Nutzer, der ein Zitat von Joseph Goebbels postete - aber nicht, wie er in seinem Widerspruch bemerkte, weil er den NS-Verbrecher so toll findet, sondern als Kommentar auf rhetorische Strategien von US-Präsident Donald Trump. Oder der Screenshot von zwei Tweets des ehemaligen malaysischen Premierministers Mahathir Mohamad. Muslime, schrieb dieser, hätten "das Recht, wütend zu sein und Millionen von Franzosen für die Massaker der Vergangenheit zu töten". Der Nutzer, der den Screenshot gepostet hatte, wandte ein, er habe auf die "schrecklichen Worte" Mohamads aufmerksam machen wollen.

Interessant sind beide Fälle, weil das Oversight Board sie ausgewählt hat, obwohl sie eigentlich klar gegen Facebooks Richtlinie zu "Hassrede" verstoßen. "Manchmal teilen Menschen Inhalte, die Hassrede anderer Personen enthalten, um für ein bestimmtes Thema zu sensibilisieren oder Aufklärung zu leisten", heißt es darin. Das sei dann erlaubt, wenn "die Person, die solche Inhalte teilt, ihre Absicht deutlich macht, sodass wir den Hintergrund besser verstehen können". Die beiden Nutzer hatten das offensichtlich nicht ausreichend getan. Trotzdem wollen Facebooks oberste "Richter" sich nun damit beschäftigen.

Man kann das als Signal sehen, dass das Gremium das ihm von Facebook zugestandene Mandat sehr großzügig auszulegen gedenkt. Das Board wurde von Facebook konzipiert und zusammengestellt und wird mit Mitteln der Konzerns bezahlt, allerdings nicht direkt aus der Unternehmenskasse, sondern über einen Treuhandfonds. Dennoch hatte es Kritik an dem Modell gegeben, weil Facebook zwar versprochen hat, sich an die Urteile des Boards zu halten, aber nicht dazu verpflichtet ist. Außerdem kritisiert wurde, dass das Gremium die vom Konzern vorgegebenen Richtlinien lediglich interpretieren, nicht aber erweitern kann. Es hat also - in der Analogie zum Staatsrecht - lediglich judikative, nicht aber legislative Kompetenzen über die Inhalte der rund drei Milliarden Nutzer. Allerdings scheint das Oversight Board nicht gewillt zu sein, diese Trennlinien in einem engen Sinn auszulegen, so wie Facebook sich das vermutlich erhofft hatte.

Bannons Aufruf, Fauci und Wray zu köpfen, ist kein Fall für das Board

Wo die Kompetenzen des Boards enden, zeigen die Fälle, auf die das sogenannte "Real Facebook Oversight Board" hinweist. Dieser Gegenentwurf zum offiziellen Konzern-Board setzt sich aus Kritikern der Facebook-Initiative zusammen und wurde von der gemeinnützigen britischen Organisation The Citizens aufgestellt. Es sieht sich als ein zivilgesellschaftlicher Konkurrenz-Gerichtshof. Parallel zum Oversight Board des Konzerns sind nun auch die Kritiker an die Öffentlichkeit gegangen.

Der erste Fall, der aus ihrer Sicht hätte behandelt werden müssen, ist der von Stephen Bannon. Der ehemalige Trump-Berater hatte in einem Facebook Live-Video dazu aufgefordert, den FBI-Direktor Christopher Wray und den prominenten US-Immunologen Anthony Fauci zu köpfen. Trotz eines direkten Verstoßes gegen die Facebook-Richtlinie zu Hassrede verfügte Facebook-Chef Mark Zuckerberg, Bannon habe "die Linie nicht übertreten", jenseits derer er von der Plattform zu sperren wäre. Das Oversight Board kann sich aber nur mit vollzogenen Sperrungen oder Löschungen beschäftigen, im Fall Bannon zählt also allein Zuckerbergs Entscheidung. Ebenso wenig kann es sich des Falls von Aktivisten aus Vietnam annehmen, deren Konten auf Betreiben der dortigen Regierung gesperrt wurden - weil Facebook sich nicht über nationales Recht hinwegsetzen möchte. Schließlich wiesen die Kritiker auf den Fall einer mehr als 50 000 Mitglieder fassenden Facebook-Gruppe hin, in der Falschinformationen über die Corona-Pandemie geteilt werden - auch mit Sperrungen von Gruppen dürfen sich Facebook oberste "Richter" nicht beschäftigen.

Das offizielle Oversight Board will innerhalb der nächsten drei Monate über die sechs Fälle entscheiden.

Zur SZ-Startseite
Nick Ayers, Rebekah Mercer

SZ PlusNetzwerk Parler
:In der rechten Echokammer

Das soziale Netzwerk Parler positioniert sich als Alternative zu Twitter und Facebook - und gewinnt bei US-amerikanischen Konservativen seit der Präsidentschaftswahl an Bedeutung.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: