Facebook:Was weg muss

Illu

Illustration: Sead Mujic

Hier leugnet einer den Holocaust, dort zeigt jemand Videos von Tierquälerei: Nun sind die Kriterien öffentlich, wie das soziale Netzwerk verbotene Nutzerbeiträge löscht - ein Einblick.

Von Simon Hurtz und Hannes Munzinger

Lange war es ein streng gehütetes Geheimnis, nach welchen Regeln Facebook Inhalte löscht. Schließlich konnten Reporter des SZ-Magazins im Dezember 2016 Aussagen von Mitarbeitern und Auszüge aus internen Lösch-Richtlinien zu einem düsteren Bild zusammensetzen: Bei der Berliner Bertelsmann-Tochter Arvato löschen Hunderte schlecht bezahlte Mitarbeiter täglich Tausende Beiträge. Das Material ist oft verstörend. Die Regeln, die sie in Sekundenbruchteilen anwenden müssen, sind hochkomplex. Dokumente, die dem britischen Guardian zugespielt wurden und die die Süddeutsche Zeitung einsehen konnte, dokumentieren diese Regeln detailreich. Auf gut 1500 Seiten beschreiben sie in Präsentationen, Ablaufplänen und Handlungsanweisungen, wie die "Content-Moderatoren" Inhalte bewerten sollen.

Mit welchem Selbstverständnis Facebook seine Lösch-Prinzipien aufstellt, verdeutlichen die Richtlinien zum Umgang mit der Holocaust-Leugnung. In mehr als zehn Ländern sind Aussagen strafbar, die den Massenmord der Nazis an Juden leugnen. Facebook blockiert solche Aussagen aber nur in Deutschland, Israel, Frankreich und Österreich. In einem der internen Dokumente heißt es dazu: "Wir respektieren lokale Gesetze, wenn die Regierung ihre Absicht klargemacht hat, diese durchzusetzen". Facebook knüpft gesetzeskonformes Verhalten also offenbar an Bedingungen. Ein Facebook-Sprecher sagt dazu: "Wir erkennen die Bedeutung von Holocaust-Leugnung in Deutschland und in anderen Ländern und stellen sicher, dass unsere Mitarbeiter hierzu entsprechend trainiert und sensibilisiert sind."

Das dürfte auch deutsche Abgeordnete interessieren. Am vergangenen Freitag hat der Bundestag in erster Lesung über das Netzwerkdurchsetzungsgesetz beraten, mit dem Firmen wie Facebook und Twitter mit Geldstrafen belegt werden sollen, wenn ihnen "systemisches Versagen" im Umgang mit strafbaren Posts nachzuweisen ist. Diese drohten aber nur, "wenn überhaupt kein effektives Beschwerde- und Löschungsverfahren besteht", sagte Justizminister Heiko Maas (SPD). Der Gesetzentwurf ziele vor allem auf Posts, die Hassreden verbreiten. Kritiker befürchten, dass hoheitliche Aufgaben der Justiz an private Unternehmen übertragen werden.

Tatsächlich gehören Facebooks Vorgaben für den Umgang mit Hassreden zu den komplexesten. Es gibt insgesamt acht sogenannte geschützte Kategorien: Rasse, Ethnie, nationale Herkunft, Geschlecht, Gender, sexuelle Orientierung sowie dauerhafte Behinderungen oder Krankheiten. Wenn eine dieser Gruppen bedroht, beleidigt, herabgesetzt oder ausgegrenzt wird, soll das von den zuständigen Mitarbeitern entfernt werden. Diese Regeln finden sich in ähnlicher Form auch in den öffentlichen Gemeinschaftsstandards von Facebook.

Flüchtlinge bilden eine "quasi geschützte Gruppe". Das gilt für Menschen, die vor Kriegen fliehen ebenso wie für Wirtschaftsflüchtlinge. Obwohl sie nicht gesondert in den Gemeinschaftsstandards auftauchen, genießen sie zusätzlichen Schutz, der aber weniger umfassend ist als der anderer Kategorien. In einer Fußnote schreibt Facebook: "Flüchtlinge sind eine verletzliche Gruppe, und wir wollen entwürdigende Kommentare entfernen, die sich gegen sie richten. Gleichzeitig wollen wir eine breite gesellschaftliche Debatte über Migration ermöglichen, ein wichtiges Thema in den kommenden Wahlkämpfen."

"Wir wollen eine breite gesellschaftliche Debatte über Migration ermöglichen."

Konkret bedeutet das: Aufrufe zur Gewalt ("Man sollte Asylanten erschießen") und entmenschlichende Zuschreibungen ("Migranten sind dreckige Kakerlaken, die unser Land überschwemmen") sind verboten, erlaubt sind dagegen Formulierungen wie: "Asylanten raus" oder "Flüchtlinge sind faule Räuber und Diebe". Auch andere erniedrigende Zuschreibungen, die in Bezug auf vollständig geschützte Gruppen gelöscht würden, bleiben unangetastet, wenn sie sich gegen Flüchtlinge richten.

Kompliziert wird es, sobald unterschiedliche Kategorien zusammenfallen. "Bringt alle Muslime um" ist eindeutig: Religiöse Überzeugung zählt zu den geschützten Kategorien, die Aussage ist verboten. "Bringt alle muslimischen Flüchtlinge um" muss ebenfalls entfernt werden. Die Kombination aus voll und quasi geschützter Gruppe ergibt eingeschränkten Schutz. Ein Gewaltaufruf ist aber auch in diesem Fall verboten. "Bringt alle muslimischen Lehrer um" wäre erlaubt, ebenso die Aufforderung in Bezug auf muslimische Arbeitslose, Teenager, Blonde, Reiche oder Dicke. Beruf, Alter, Aussehen und Einkommen sind keine geschützten Gruppen und heben den Schutz für Muslime auf.

Die Unterlagen bestätigen auch, was Mitarbeiter der Lösch-Teams dem SZ-Magazin geschildert hatten: Viele gemeldete Inhalte auf Facebook zeigen barbarische Gewalt, besonders im Umgang mit Tieren. Die Regeln sind erschreckend präzise, beispielsweise: "Videos, die das wiederholte Beißen eines lebenden Tieres durch einen Menschen nicht zu Ernährungszwecken" zeigt, sind als verstörend zu markieren - das bedeutet: Sie werden nicht gelöscht, aber auch nicht automatisch abgespielt. Nutzerbefragungen ergäben einen Zusammenhang zwischen Tierquälerei und Unzufriedenheit mit dem Netz. Diese Begründung ist nur konsequent: Facebooks wichtigstes Kapital ist die Zufriedenheit der Nutzer.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: