Inside Facebook:Facebooks Gesetz: die geheimen Lösch-Regeln

Lesezeit: 3 Min.

Beim Lösch-Team von Arvato in Berlin sollen rund 600 Menschen arbeiten - zum Beispiel in der oberen Etage dieses Hauses in der Nähe des Flughafens Tegel. (Foto: Hannes Jung)

Facebook legt fest, wer geschützt wird und wer nicht - und dass es in Ordnung ist zu posten: "Hängt Kinderschänder". Das Netzwerk erscheint aber zunehmend unfähig, seine eigenen Regeln sauber umzusetzen. Dem SZ-Magazin liegen Teile der geheimen Facebook-Löschregeln vor.

Von Till Krause und Hannes Grassegger

Seit Jahren wird gefordert, dass Facebook öffentlich macht, wonach entschieden wird, welche Inhalte auf seiner Plattform erlaubt und welche verboten sind. Doch kaum etwas hält das soziale Netzwerk so geheim. Dem SZ-Magazin liegen nun Dokumente vor, die Teil der internen Facebook-Löschregeln sind und die bisher kaum an die Öffentlichkeit gelangt sind.

Warum der Konzern diese Regeln unter Verschluss hält, ist nicht bekannt. Was auf Facebook sichtbar ist, wird von den Nutzern selbst hochgeladen und verfasst. Es ist wie eine Reality Show - eine, die jugendfrei sein und den Gesetzen in allen Ländern entsprechen muss, in denen das Netzwerk zugänglich ist. Das ist kaum widerspruchsfrei zu lösen.

Inside Facebook
:Das sind Facebooks geheime Lösch-Regeln

Facebook verrät nicht, nach welchen Kriterien Inhalte entfernt werden müssen. Dem SZ-Magazin liegen Teile der Regeln vor. Wir zeigen Ausschnitte und erklären sie.

Von Till Krause und Hannes Grassegger

Ein ehemaliger Mitarbeiter mutmaßt, die Geheimhaltung soll verhindern, dass Nutzer des Netzwerkes Methoden entwickeln, die Regeln zu umgehen. Das wäre, als ob ein Staat sein Gesetzbuch unter Verschluss hält - aus Angst, Bürger könnten verbrecherische Methoden verfeinern. Andersherum gilt: Wer nicht weiß, unter welchen Gesetzen er lebt, der lebt in einer Willkürherrschaft.

Zunehmend erscheint Facebook unfähig, seine eigenen Regeln sauber umzusetzen. Das zeigte sich erst vor kurzem bei der vieldiskutierten, später wieder rückgängig gemachten Löschung eines historischen Vietnam-Kriegsbildes. Es zeigte ein nacktes Kind auf der Flucht vor Angriffen. Immer wieder fragen sich normale User, warum ihre Inhalte entfernt wurden - oder Dinge auf Facebook stehen, die dort nichts zu suchen haben. Zuletzt wurden Mark Zuckerbergs eigene Posts zu Donald Trumps Wahl gelöscht, angeblich irrtümlich.

Derzeit gibt es 1,8 Milliarden Facebook-Nutzer weltweit. Für viele von ihnen bedeutet Facebook Familie und Arbeit zugleich. Für Hunderte Millionen Menschen ist das Netzwerk die wichtigste Nachrichtenquelle. Es hat also enorme Auswirkungen, welche Inhalte herausgefiltert werden - und welche zirkulieren dürfen.

Nicht nur Facebooks Lösch-Gesetze, auch das Gesetzgebungsverfahren ist unbekannt. Offiziell gibt es zwar eine sogenannte Global Policy Management Abteilung unter Leitung der Juristin Monika Bickert. Doch es bleibt unklar, wer die Regeln letzlich bestimmt, wer sie ändert und anpasst. Für die Öffentlichkeit gibt es nur eine watteweiche Light-Version, Gemeinschaftsstandards genannt - als würde man das Gesetzbuch einem Kleinkind erklären und ihm den echten Text vorenthalten.

Inside Facebook
:Facebook's secret deletion rules - English version

Facebook refuses to disclose the criteria that deletions are based on. SZ-Magazin has gained access to some of these rules. We show you some excerpts here - and explain them. Read the English version here.

So entsteht eine Art Parallelrecht, nach dem sich entscheidet, welche Botschaften, Bilder und Videos Facebook-Nutzer auf der ganzen Welt sehen und was geteilt wird - beispielsweise Fake News und Hassreden.

Der Konzern legt in seinen internen Dokumenten fest, dass es beispielsweise erlaubt ist, "grausame und unübliche Strafen bei Verbrechen zu fordern, die Facebook anerkennt". Als Beispiel ist der Satz "Hängt Kinderschänder" genannt. Laut den nun ans Licht gekommenen internen Facebook-Regeln ist das "nicht zu beanstanden". Nun ist es nicht Sache von Unternehmen, Verbrechen "anzuerkennen", und auch Kinderschänder besitzen laut deutschem Grundgesetz unantastbare Würde. Doch Facebook teilt Menschen in Kategorien ein - manche schützenswert, andere weniger.

Facebook konkurriert mit dem Staat

Es wirkt besorgniserregend, wenn Facebook festlegt, wer oder was in einer Gesellschaft besonderen Schutz genießt, welche Aussagen erlaubt und welche verboten sind. Diese Fragen regelt in demokratischen Gesellschaften in erster Linie das Gesetz - und nicht die firmeninternen Regeln eines börsennotieren Konzerns, dessen Kernprodukt ein eigentlich hohes gesellschaftliches Gut ist: eine möglichst breite Öffentlichkeit. Facebook konkurriert nicht nur mit den Medien, es konkurriert auch mit dem Staat an sich.

Doch die Öffentlichkeit muss erfahren dürfen, was hinter den Kulissen von Facebook geschieht. Darum dokumentiert das SZ-Magazin eine Auswahl der Regeln - und in der aktuellen Ausgabe des Magazins, wie die Menschen leben, die die Plattform sauber halten sollen.

Zum Schutz unserer Quellen zeigen wir nur optisch verfremdete Ausschnitte aus internen Schulungsunterlagen, in denen die Regeln für die Facebook-Löschteams in Europa mit Hunderten Beispielen erklärt werden. Es ist nur ein kleiner Teil der Dokumente, die dem SZ-Magazin vorliegen.

Unseren Informanten zufolge ändern sich die Regeln ständig, fast jede Woche werden sie aktualisiert, manchmal sogar schneller.

Wir werden aktuelle Entwicklungen und Stellungnahmen zur Titelgeschichte des SZ-Magazins unter dem Hashtag #insideFacebook sammeln.

Vertrauliche Hinweise oder Dokumente können Sie den Autoren als verschlüsselte Email schicken: tkrause@sz-magazin.de (PGP Key: E2B83AE4)

© SZ.de - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusInside Facebook
:Im Netz des Bösen

Hass, Folter, Kinderpornografie: In Berlin löschen Hunderte Mitarbeiter der Bertelsmann-Firma Arvato unerwünschte Facebook-Inhalte. Einblicke in eine verschlossene Welt - und einen grauenvollen Job.

Von Hannes Grassegger und Till Krause

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: