Einblick in interne Dokumente Nach diesen Kriterien löscht Facebook

Facebooks Löschpraxis war bislang nur Insidern bekannt.

(Foto: Sead Mujic)
  • Dutzende interne Dokumente zeigen erstmals detailliert die Vorgaben, nach denen Facebook-Mitarbeiter Inhalte prüfen und löschen sollen.
  • Es geht um Themen wie Kindesmissbrauch, Erpressung, Mobbing und Tierquälerei.
  • Die Schulungsunterlagen umfassen Tausende Seiten und verdeutlichen, wie komplex die Regeln sind.
  • Angestellte müssen die schwierigen Entscheidungen unter Zeitdruck treffen, fühlen sich oft überfordert und sind verunsichert.
Von Simon Hurtz und Hannes Munzinger

Während das soziale Netzwerk Facebook in Deutschland unter Druck steht, beleidigende oder anderweitig illegale Inhalte zu löschen, ist nun erstmals ein Einblick in die internen Lösch-Regeln des Unternehmens möglich. Die Süddeutsche Zeitung konnte 48 Dokumente einsehen, die dem britischen Guardian zugespielt wurden und zeigen, auf welcher Grundlage Facebook Inhalte löscht.

Es handelt sich um Schulungsunterlagen, Präsentationen und Diagramme mit Handlungsanweisungen. Auf Tausenden Seiten lernen die Mitarbeiter, wann sie Inhalte ignorieren, sperren oder an Strafverfolgungsbehörden weiterleiten sollen. Dabei geht es um Kindesmissbrauch, Erpressung, Mobbing, Gewaltdarstellungen und Tierquälerei.

Soziale Netzwerke Inside Facebook
Exklusive SZ-Magazin-Recherche

Inside Facebook

Wer löscht die Hasskommentare, Kinderpornos und Fake News auf Facebook? Im SZ-Magazin sprechen erstmals Mitarbeiter aus dem 600 Mann starken Löschteam in Berlin über ihre belastende Arbeit. Sie sind bei dem Dienstleister Arvato angestellt und fühlen sich nicht ausreichend unterstützt. Einblicke in einen grauenvollen Job und die streng geheimen Lösch-Regeln.   Von Till Krause und Hannes Grassegger

Weil die Löschpraxis von Facebook bislang oft für unzureichend gehalten wird, will Bundesjustizminister Heiko Maas (SPD) noch vor der Sommerpause ein Gesetz verabschiedet sehen, das sozialen Netzwerken Geldbußen androht, falls sie rechtswidrige Inhalte nicht löschen.

Live gestreamte Selbsttötungsversuche sind für Facebook ein großes Problem

Besonders die Darstellung von Suizid-Versuchen stellt Facebook den Unterlagen zufolge vor ein Dilemma: Facebook möchte Nutzern auch in Zukunft erlauben, solche Handlungen live zu streamen. "Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie - diese zu entfernen könnte verhindern, dass sie gehört werden", heißt es. Man habe diese Richtlinien mit Experten entwickelt. Für die Sicherheit der Betroffenen sei es das Beste, wenn sie live mit ihren Zuschauern in Kontakt bleiben könnten. Die Aufnahmen würden deshalb erst entfernt, wenn es keine Möglichkeiten mehr gebe, der Person zu helfen.

Die Dokumente zeigen, dass sich der Konzern bemüht, das Problem in den Griff zu bekommen. Dennoch droht Facebook daran zu scheitern. Das liegt nicht an den Regeln selbst - die sind extrem komplex, aber größtenteils einleuchtend. Es liegt vielmehr an den Arbeitsbedingungen, unter denen Angestellte bei Facebook und Drittfirmen diese Regeln in praktische Entscheidungen umsetzen müssen.

Eine Recherche des SZ-Magazins deckte im vergangenen Dezember auf, dass allein in Berlin 600 Menschen beim Dienstleister Arvato angestellt sind, die im Auftrag von Facebook Inhalte prüfen und löschen. Sie leiden unter ihren Arbeitsbedingungen, arbeiten für ein Gehalt knapp über dem Mindestlohn und erhalten wenig psychologische Unterstützung. Die wäre nötig, da viele der Mitarbeiter regelmäßig Fotos und Videos von Folter, Mord oder Kindesmissbrauch sichten müssen.

Mitarbeiter sind verunsichert und verwirrt

Diese Content-Moderatoren sind auch mit Selbstverletzung oder den Folgen von Essstörungen konfrontiert. Nutzer posten Bilder von selbst zugefügten Wunden und ausgehungerten Körpern oder schreiben in Nachrichten und Posts darüber. Die Richtlinie für den Umgang mit solchen Inhalten ist vermeintlich klar: "Wir wollen diese Art von Inhalten nicht auf der Seite haben, da sie selbstverletzende Verhaltensweisen anderer Nutzer auslösen können", heißt es in einem Dokument.

Das gilt aber nur für Inhalte, die Essstörungen oder Selbstverletzung verherrlichen. Das kommentarlose Bild eines magersüchtigen Körpers wird nicht gelöscht. Nur im Zusammenhang mit einer Aufforderung, Anleitung oder gar Hilfestellung zu selbstschädigendem Verhalten verstößt ein Beitrag gegen Facebooks Richtlinien. In welche Kategorie ein Beitrag fällt, entscheiden die Moderatoren unter Zeitdruck.

Viele der Mitarbeiter sind offenbar unsicher, die Schulungsunterlagen nennen häufig gestellte Fragen. Eine lautet: "Ich bin mir nicht sicher, ob die Person wirklich unsere Hilfe braucht, was soll ich tun?" Die Antwort: "Wenn es nicht offensichtlich ist, dass sie Hilfe brauchen, ignoriere den Inhalt einfach." Wer Zweifel habe, könne den Fall jederzeit mit einem Vorgesetzten diskutieren.

Zuckerberg verspricht 3000 neue Facebook-Kontrolleure

Die Dokumente legen nahe, dass die Angestellten der externen Dienstleister die Inhalte nur bis zu bestimmten "Eskalationsstufen" bearbeiten, dann an Facebook weiterreichen. Wenn Suizid nur in Hashtags auftaucht, die angekündigte Methode "nicht klar das Leben des Nutzers gefährdet" oder der Zeitraum unklar ist, solle man keine Nachricht an Facebook schreiben.

Auf Rückfragen der SZ antwortete das Unternehmen nur, man nehme die "Sicherheit der Nutzer sehr ernst". Anfang Mai kündigte Mark Zuckerberg an, die Zahl der Facebook-Kontrolleure von 4500 auf 7500 zu erhöhen. Facebook machte keine Angaben, ob es sich wieder um externe Hilfskräfte handeln soll. Die Dokumente deuten jedoch darauf hin, dass Arvato seine Tätigkeit für Facebook ausweitet.

Facebook "SZ-Magazin"-Artikel löst Betriebsprüfung bei Facebooks Dienstleister aus

Recherche

"SZ-Magazin"-Artikel löst Betriebsprüfung bei Facebooks Dienstleister aus

Mitarbeiter der Bertelsmann-Tochter Arvato berichteten, wie sie Kinderpornos, Folter und Hass ausgesetzt sind - und keine Hilfe bekamen. Jetzt handelt eine Berliner Behörde.