Internetzensur Wer die Blutlachen bei Facebook aussortiert

Bildersuche nach "Islamic state", digital verfremdet: Junge Philippiner, schlecht bezahlt und zum Schweigen verpflichtet, prüfen in privaten Unternehmen jeden Tag hochgeladene Bilder auf "Unangemessenes". Grausamkeiten der Terrormiliz IS dienen der US-Politik und bleiben oft im Netz. Anderes verschwindet.

(Foto: Collage: SZ)
  • Nicht nur Algorithmen, auch Menschen entscheiden, wann fragwürdige Inhalte auf Facebook oder Youtube verboten sind.
  • Die großen sozialen Netzwerke drücken sich vor der Arbeit, indem sie externe Dienstleister in Übersee beauftragen, zum Beispiel auf den Philippinen.
Von Till Briegleb

In dem lieben Internet, das wir den ganzen Tag benutzen, soll bitte alles an seinem ordentlichen Platz sein. Die Grausamkeiten und Verbrechen des echten Lebens gehören auf die Nachrichtenseiten, moderiert und nicht explizit gezeigt. Für Pornografie und sexuelle Spezialinteressen gibt es separierte Angebote. Männer, die ihre Frauen verprügeln oder ihre Feinde in Blutlachen auflösen, haben ihren Ort in Serien und Spielen. Und das ganz finstere Zeugs möchte bitte nur die Polizei entdecken. Darin sind sich die großen Anbieter von Web-Produkten relativ einig mit der Mehrzahl ihrer Kunden.

Aber leider ist die Welt nicht lieb, ihr Abbild im Internet auch nicht. Wer sorgt also dafür, dass wir bei Facebook kein Profilbild sehen, das einen abgehackten Kopf zeigt, bei Youtube kein Video mit Kindesmissbrauch finden oder bei Instagram Grumpy Cat nicht in einer Serie mit geschredderten Küken und gehäuteten Hunden auftaucht? Die meisten User zerbrechen sich darüber kaum den Kopf oder glauben, tolle Algorithmen aus Silicon Valley sorgen dafür, dass nicht unfreiwillige Schocks unsere Digitalmedienabhängigkeit stören. Aber kann die automatisierte KI wirklich eine entblößte Brust auf einem Tizian-Bild von einem Nacktselfie unterscheiden, Ironie von Hetze oder inszenierte von echter Gewalt?

Schmutzarbeit wird auf die Philippinen outgesourct

Die Mark Zuckerbergs dieser Welt glauben das jedenfalls nicht - auch wenn sie das auf keinen Fall zugeben wollen. Vielmehr beschäftigen die großen Digitalkonzerne Zehntausende Tatortreiniger, die rund um die Uhr die sozialen Medien und alle anderen Angebote putzen, die davon leben, dass ihre User etwas hochladen. Möglichst bevor ein Bild, ein Video, ein Text erscheint, macht dieser Content eine kleine Reise auf die Philippinen, wo ein Heer junger Jobber vor Bildschirmen sitzt und in Sekunden darüber entscheiden muss, ob der Nippel auf dem briefmarkengroßen Jpeg Renaissance-Kunst ist oder Selbstentblößung, veröffentlicht oder gelöscht wird.

"Die Müllabfuhr im Internet" hieß deshalb eine Veranstaltung der Heinrich-Böll-Stiftung in Berlin sehr passend, die sich diesem aufwendig verdrängten Thema der Mediendemokratie widmete, über das es nur sehr wenige Informationen gibt. Denn die Schattenarmee, die in neonbeleuchteten Großraumbüros die moralische Verwerflichkeit der zivilisierten Welt im 24/7-Akkord ungesehen machen soll, ist zum Schweigen verdammt. Laut der Verpflichtung, die jeder Mitarbeiter dieser digitalen Putzkolonnen unterschreiben muss, dürfen sie nicht einmal ihren Partnern davon berichten, was sie den ganzen Tag über sehen müssen - falls eine Partnerschaft nicht sowieso von diesem Job zerstört wird.

Arbeiter berichten von Libidoverlust, Depressionen und Paranoia

Recherchen in Manila, die der deutsche Theatermacher Moritz Riesewieck und die amerikanische Medienwissenschaftlerin Sarah T. Roberts in Berlin vorstellten, brachten gravierende psychologische Begleiterscheinungen zutage. Von Libidoverlust über Schlafstörungen zu Depressionen, Alkoholismus und paranoidem Misstrauen gegenüber anderen Menschen reichen die Leiden, die das stumme Verschließen des Bilderhorrors im eigenen Kopf erzeugt.

"Commercial Content Moderation" (CCM) nennen die Firmen verschleiernd das Geschäft in den "Digital Sweatshops", das in vielem den globalisierten Strukturen des Warenverkehrs gleicht. Auch bei der Bildproduktion wird die Schmutzarbeit ausgelagert. Autonome Unternehmen in Billiglohnländern nehmen den sauberen Marken nicht nur die ungeliebte Arbeit zu niedrigen Kosten ab, sondern auch die Verantwortung für die Gesundheit der Mitarbeiter. Um die Folgeschäden von täglich zehn Stunden Schocksortieren, so Riesewieck und Roberts in ihren Vorträgen, kümmern sich die Subunternehmer in der Regel nur, indem sie diejenigen, die nicht vorher schon gekündigt haben, nach spätestens zwei Jahren entlassen. Schweigen müssen sie weiterhin.