Recherche in internen Dokumenten So löscht Facebook Holocaustleugnung, Hass und Rache-Pornos

Dieses Ablaufdiagramm soll Facebook-Mitarbeitern erklären, wie sie vorgehen müssen, wenn geschützte Gruppen ("Protected Categories", PC) bedroht oder beleidigt werden.

(Foto: Guardian)

In Deutschland ist es verboten, den Genozid an Juden abzustreiten - fast alle anderen Länder erlauben diese Aussage. Interne Dokumente zeigen nun, wie Facebook seine eigenen Regeln macht.

Von Simon Hurtz und Hannes Munzinger

Facebook kann es keinem recht machen. Das Netzwerk solle strafbare Inhalte schneller und konsequenter löschen, fordern die einen. Bloß nicht, sagen andere: Ein Unternehmen dürfe nicht entscheiden, wo das Grundrecht der Meinungsfreiheit ende.

Täglich sichten Facebooks Mitarbeiter Millionen Fotos, Videos und entscheiden: Ist das harmlos, oder muss das weg? Die Kriterien waren für Außenstehende jahrelang kaum nachvollziehbar. Nutzer konnten sich lediglich an den sogenannten Gemeinschaftsstandards orientieren, die erklären, welche Inhalte sie auf Facebook teilen dürfen - vagen Regeln, die viel Spielraum für Interpretationen lassen.

Nach diesen Kriterien löscht Facebook

Interne Dokumente ermöglichen erstmals tiefen Einblick in Facebooks Vorgaben. Die Regeln sind komplex, aber nachvollziehbar - das Problem sind die Arbeitsbedingungen der Angestellten. Von Simon Hurtz und Hannes Munzinger mehr ...

Nun ist ein detaillierter Einblick in die internen Abläufe bei Facebook möglich. Dem britischen Guardian wurden Dutzende Schulungsunterlagen, Präsentationen und Diagramme mit Handlungsanweisungen zugespielt, die die Süddeutsche Zeitung einsehen konnte. Sie zeigen, wie und warum Facebooks Mitarbeiter Inhalte entfernen.

Monika Bickert leitet die Abteilung, die Facebooks Lösch-Regeln erstellt. Sie erklärt, warum das Unternehmen die internen Vorgaben geheim halten will: "Details unserer Richtlinien teilen wir nicht immer öffentlich, denn wir wollen Menschen nicht dazu ermutigen, Umgehungslösungen zu finden." Sie sagt, manche Regeln erschienen auf den ersten Blick unlogisch, man stehe aber in ständigem Kontakt mit Experten und würde die Vorgaben immer wieder anpassen.

"Wir bemühen uns sehr, objektiv zu bleiben", sagt Bickert. "Die Fälle, die wir prüfen, sind keine einfachen: Oft befinden sie sich in einem Graubereich, worüber die Menschen unterschiedlicher Meinung sind." Facebook sei überzeugt, dass die Vorteile des Verbreitens von Inhalten die Risiken überwögen. "Aber wir erkennen auch, dass die Gesellschaft noch dabei ist herauszufinden, was akzeptabel und was schädlich ist und dass wir bei Facebook eine wichtige Rolle in diesem Dialog spielen."

Die internen Dokumente decken eine große Bandbreite ab: Es geht um vergleichsweise harmlose Themen wie Wettbetrug oder Nutzerkonten ohne authentische Namen, aber auch um Kindesmissbrauch und verzweifelte Menschen, die ihre Suizide live ins Internet übertragen. Besonders interessant sind die Regeln zu Holocaustleugnung, Hassrede und Tierquälerei. Sie zeigen, wie komplex die Vorgaben sind, auf deren Grundlage Content-Moderatoren von Facebook und externen Dienstleistern unter Zeitdruck Entscheidungen treffen müssen.

Holocaustleugnung

Mit welchem Selbstverständnis Facebook seine Lösch-Prinzipien aufstellt, verdeutlichen die Richtlinien zum Umgang mit Holocaustleugnung. In mehr als zehn Ländern sind Aussagen strafbar, die den Massenmord der Nazis an Juden leugnen (Facebook schreibt in den Dokumenten von "etwa 14", dementiert diese Zahl aber auf Nachfrage). Das Unternehmen blockiert entsprechende Inhalte aber nur in Deutschland, Israel, Frankreich und Österreich. In einem der Dokumente heißt es dazu: "Wir respektieren lokale Gesetze, heißen diese aber nicht gut, wenn sie ein Hemmnis für eine offene und vernetzte Welt darstellen."

Dementsprechend werde Facebook Inhalte "nicht entfernen, bis ein Land den politischen Willen nachgewiesen hat, nationale Zensurgesetze durchzusetzen". Wenn zuständige Regierungen oder Strafverfolgungsbehörden dies versäumten, werde Facebook das Recht nicht in ihrem Auftrag durchsetzen.

Screenshot eines Dokuments, das der Guardian erhalten und der Süddeutschen Zeitung zur Verfügung gestellt hat.

(Foto: Guardian)

Auf Nachfrage teilt Facebook dazu mit: "Wir nehmen Holocaust-Leugnung sehr ernst und entfernen diese beispielsweise in Deutschland. Wir erkennen die Bedeutung von Holocaust-Leugnung in Deutschland und in anderen Ländern und stellen sicher, dass unsere Mitarbeiter hierzu entsprechend trainiert und sensibilisiert sind."

Sofern der politische Druck groß genug ist, kooperiert Facebook durchaus mit Regierungen - selbst, wenn die geforderten Zensurpraktiken mindestens fragwürdig sind. So beugte sich das Unternehmen etwa mehrfach der Königsfamilie in Thailand, zensierte angeblich blasphemische Inhalte in Pakistan, die Facebook-Seite des russischen Putin-Kritikers Alexej Nawalny und anderer Oppositioneller und entfernte Seiten von syrischen, tibetischen und chinesischen Dissidenten. Und angeblich entwickelt es ein eigenes Zensur-Werkzeug, um wieder Zugang zum chinesischen Markt zu erhalten.

Hassrede

Schon das Wort "Hate Speech", zu Deutsch Hassrede, ist umstritten. Es ist juristisch nicht definiert. Deshalb sehen Kritiker die Gefahr, dass Politiker den Begriff nutzen, um unerwünschte Meinungen zu unterdrücken und missliebige Aussagen zu zensieren. Dementsprechend detailliert und komplex sind Facebooks Regeln bei diesem sensiblen Thema.

Es gibt insgesamt acht sogenannte geschützte Kategorien: Rasse, Ethnie, nationale Herkunft, Geschlecht, Gender, sexuelle Orientierung sowie schwerwiegende und dauerhafte Behinderungen oder Krankheiten. Wenn eine dieser Gruppen bedroht, beleidigt, herabgesetzt oder ausgegrenzt wird, soll der entsprechende Beitrag von den zuständigen Mitarbeitern entfernt werden. Diese Regeln finden sich in ähnlicher Form auch in den öffentlichen Gemeinschaftsstandards von Facebook.

Flüchtlinge bilden für Facebook eine "quasi geschützte Gruppe". Das gilt für Menschen, die vor Kriegen und Katastrophen fliehen ebenso wie für Wirtschaftsflüchtlinge. Obwohl sie nicht gesondert in den Gemeinschaftsstandards auftauchen, genießen sie zusätzlichen Schutz, der aber weniger umfassend ist als für andere Kategorien. In einer Fußnote schreibt Facebook: "Flüchtlinge sind eine verletzliche Gruppe, und wir wollen entwürdigende Kommentare entfernen, die sich gegen sie richten. Gleichzeitig wollen wir eine breite gesellschaftliche Debatte über Migration ermöglichen, ein wichtiges Thema in den kommenden Wahlkämpfen."

Konkret bedeutet das: Drohungen und Aufrufe zur Gewalt ("Man sollte Asylanten erschießen") und entmenschlichende Zuschreibungen ("Migranten sind dreckige Kakerlaken, die unser Land überschwemmen") sind verboten. Dagegen dürfen Nutzer "Asylanten raus" fordern oder Flüchtlinge als "faule Räuber und Diebe" bezeichnen, "die unser Land überschwemmen". Auch andere erniedrigende Aussagen, die in Bezug auf die acht vollständig geschützten Gruppen gelöscht würden, bleiben unangetastet, wenn sie sich gegen Flüchtlinge richten.

Kompliziert wird es, sobald unterschiedliche Kategorien zusammenfallen. "Bringt alle Muslime um" ist eindeutig: Religiöse Überzeugung zählt zu den geschützten Kategorien, die Aussage ist verboten. "Bringt alle muslimischen Flüchtlinge um" muss ebenfalls entfernt werden. Die Kombination aus einer voll und einer quasi geschützten Gruppe ergibt in der Summe nur eingeschränkten Schutz. Ein Gewaltaufruf ist aber auch in diesem Fall verboten.

"Bringt alle muslimischen Lehrer um" wäre dagegen erlaubt, ebenso die Aufforderung in Bezug auf muslimische Arbeitslose, Teenager, Dunkelhaarige, Reiche oder Dicke. Beruf, Alter, Aussehen und Einkommen sind keine geschützten Gruppen und heben den besonderen Schutz für Muslime auf. Ein anderes Beispiel aus den Dokumenten: "Alle Terroristen sind Muslime" ist eine zulässige Aussage, da Terroristen keine geschützte Gruppe sind. "Alle Muslime sind Terroristen" müsste dagegen gelöscht werden.