Vor einigen Tagen nahm Facebook-Gründer Mark Zuckerberg auf einem grauen Sofa Platz, um mit seiner Geschäftsführerin Sheryl Sandberg über sein Unternehmen zu sprechen. Ihre Unterhaltung wurde online übertragen, Millionen Menschen haben es gesehen. Heikle Themen hätte es genug gegeben: der unzureichende Umgang mit Hassbotschaften und Fake News, die mangelnde Transparenz, die schlechten Arbeitsbedingungen bei Dienstleistern, die im Auftrag von Facebook Hass und Gewalt von der Seite entfernen müssen. Lange hieß es von Zuckerberg nur: Wir sind eine Website und nicht verantwortlich für das, was die Leute dort so treiben. Und auch beim Jahresendplausch war von ihm nur zu hören: "Wir bauen Technologie auf, und wir fühlen uns verantwortlich dafür, wie sie benutzt wird."
Bisher ist von dieser Verantwortung nichts zu erkennen. Die Firma, die Milliarden mit der Bereitschaft von Menschen verdient, ihr Privatleben und ihre Vorlieben öffentlich zu machen, ist eines der verschlossensten Unternehmen der Welt. Standardsatz der Presseabteilung: "Dazu machen wir keine Angaben." Nachdem das Süddeutsche Zeitung Magazin am 16. Dezember die traumatisierenden Arbeitsbedingungen der Bertelsmann-Tochter Arvato öffentlich machte, die im Auftrag von Facebook von Berlin aus Hass, Terror und Kinderpornos von Facebook entfernen soll, verschärfte sich die Diskussion über die Verantwortung der Internetfirma.
Illegale Inhalte werden demnach von kaum ausgebildeten und teilweise traumatisierten Mitarbeitern entfernt. Als im Zuge der Recherche zudem interne Dokumente veröffentlicht wurden, die erstmals tiefe Einblicke in die genauen Löschregeln von Facebook gaben, verfestigte sich das Bild eines verantwortungslosen Unternehmens. Justizminister Heiko Maas drohte mit rechtlichen Konsequenzen.
Der Würzburger Anwalt Chan-jo Jun, der bereits mehrmals versucht hat, Facebook und einzelne Manager des Konzerns wegen dessen Löschpraxis rechtlich zu belangen, sieht in der Praxis bei Arvato einen "angeordneten Rechtsbruch". Er sagt: "Die Mitarbeiter dürfen illegale Inhalte nicht löschen, wenn sie von Facebook erwünscht sind. Das gilt zum Beispiel für Gewaltdarstellungen, Hetze außerhalb geschützter Gruppen und Verleumdungen."
Warum müssen die Mitarbeiter in den Lösch-Teams Gewaltvideos eigentlich in voller Länge sehen?
In Juns Augen wäre auch die psychische Belastung der Mitarbeiter, die die gewaltsamen Inhalte betrachten müssen, eigentlich vermeidbar. Sie müssten "unnötigerweise" Videos beispielsweise grausamer Gewalt in ganzer Länge ansehen und anhören - allein weil "das von Rechts wegen etablierte Kriterium der Menschenunwürdigkeit für Facebook noch kein Grund für eine Löschung" sei. Vielmehr kommt es dem Unternehmen nach den vom SZ-Magazin enthüllten Löschregeln immer auch auf den Kontext eines Beitrags an - einfache Darstellung brutaler Gewalt ist nicht automatisch Anlass für eine Entfernung eines Bildes oder Videos.
Die nun in Teilen öffentlichen Lösch-Regeln haben weltweit Aufmerksamkeit erregt: In England, den USA, Frankreich und Japan berichteten große Medien über Facebooks Löscharbeit. Die Zeitung Le Monde bat Facebook um eine Stellungnahme. Die Reaktion: Floskeln und Besänftigungen. Die Zusammenarbeit mit Arvato sei gut. Die Mitarbeiter zählen zu "den besten". Eine deutsche Sprecherin von Facebook wies auf Spiegel Online alle Vorwürfe zurück. Über konkrete Hilfe für die betroffenen Mitarbeiter, die laut Experten Anzeichen von posttraumatischen Belastungsstörungen zeigen, äußerten sich weder Facebook noch Arvato. Auf Anfrage der Süddeutschen Zeitung beteuerte Facebooks Sprecherin Tina Kulow nach Veröffentlichung der Reportage lediglich, dass man die Betreuungsprogramme der Mitarbeiter "kontinuierlich überprüfe", ansonsten aber Fragen nicht detaillierter beantworten könne.