Zensur auf Facebook Wenn die Unabhängigkeitserklärung zur Hassrede wird

Thomas Jefferson war der Hauptautor der amerikanischen Unabhängigkeitserklärung. Facebook erkannte "Hassrede" in dem Dokument.

(Foto: imago/ZUMA Press)
  • Eine texanische Lokalzeitung postete die amerikanische Unabhängigkeitserklärung in mehreren Abschnitten auf Facebook.
  • In einer Stelle über "gnadenlose Indianer-Wilde" soll das Netzwerk "Hassrede" erkannt haben. Der Beitrag wurde gelöscht.
  • Immer wieder löscht Facebook nach fragwürdigen Kriterien. Vor allem mit Abbildungen von Kunst hat das Netzwerk Probleme.
Von Marvin Strathmann

Würden die Gründerväter der USA die Unabhängigkeitserklärung von 1776 heute aufschreiben, dann scheiterte der Text vermutlich an Facebooks Algorithmen. Die texanische Lokalzeitung Liberty County Vindicator hat es ausprobiert und das komplette Dokument in mehreren Abschnitten auf Facebook gepostet. Doch einer der Beiträge war zu viel für das soziale Netzwerk: Facebook löschte den Eintrag, weil er gegen die Hassrede-Regeln verstoße.

Warum Facebook genau jenen Eintrag löschte, ist nicht ganz klar. Allerdings ist in einer Passage die Rede von "gnadenlosen Indianer-Wilden, deren bekannte Art der Kriegsführung es ist, alle ohne Rücksicht auf Alter, Geschlecht und Stand zu vernichten". Die Algorithmen des sozialen Netzwerks erkannten wohl eine rassistische Beleidigung der Ureinwohner.

"Um ehrlich zu sein, enthält diese Passage so einiges, was als Hassrede eingestuft werden kann", schreibt Chefredakteur Casey Stinnett auf der Webseite der Zeitung (Die Seite kann aus Europa nicht aufgerufen werden, da der Betreiber die Regeln der Datenschutz-Grundverordnung nicht umsetzt und sie daher für Besucher aus der EU gesperrt hat). Stinnett geht davon aus, dass der Eintrag automatisch gelöscht wurde, also an künstlicher Intelligenz gescheitert ist: "Hätte ein menschlicher Mitarbeiter von Facebook den Post überprüft, wäre er ohne Zweifel erlaubt worden."

Immer wieder Bilder von Kunst gelöscht

Später entschuldigte sich das soziale Netzwerk für das Löschen des Beitrags und stellte ihn wieder her. Immer wieder versagen die automatischen Algorithmen von Facebook, die problematische Einträge erkennen sollen, und Beiträge verschwinden im digitalen Nirwana, die eigentlich unproblematisch sind. Vor allem mit Kunst und Nacktheit scheinen das Netzwerk und seine Algorithmen Probleme zu haben:

  • Im Februar löschte Facebook ein Bild, das die "Venus von Willendorf" zeigt: Eine kleine Figur aus Stein, die einen Frauenkörper darstellt und etwa 30 000 Jahre alt ist.
  • Im März musste ein Ausschnitt des Gemäldes "Die Freiheit führt das Volk" von Eugène Delacroix dran glauben. Darauf sind die Brüste einer Frau zu sehen.
  • Letztes Jahr traf es das Bild einer Statue des nackten Meeresgottes Neptun, die auf einem Platz in Bologna steht. Das Bild sei zu "sexuell freizügig", schrieb Facebook damals.

Der Ablauf ist in vielen Fällen derselbe: Erst löscht Facebook Kunst, dann wird das Vorgehen öffentlich oder die Nutzer beschweren sich, das Netzwerk stellt die betroffenen Bilder wieder her und entschuldigt sich. Es mag den Lösch-Algorithmus und die eigenen Richtlinien mit den amerikanischen Moralvorstellungen über Nacktheit gefüttert haben, aber Kunstverständnis haben sie dem Programm nicht mitgegeben.

Facebook ist auf die Hilfe des Algorithmus angewiesen

Ein Mensch hätte diese Beiträge vermutlich nicht gelöscht. Er hätte erkannt, dass die texanische Lokalzeitung ein historisches Dokument zitiert und die Brüste in einem Bild von Delacroix keine Pornografie sind. Die Maschine wirkt in solchen Fällen, nach menschlichen Maßstäben, noch recht dumm.

Allerdings ist Facebook auf die Hilfe des Algorithmus angewiesen, um die große Menge an Beiträgen zu bearbeiten, die jeden Tag gepostet werden. Fälle, in denen das Programm zu Recht Beiträge entfernt, werden in der Regel nicht öffentlich - aber sie dürften die Fehler bei Weitem übersteigen.

Nationale Gesetze setzen das Unternehmen weiter unter Druck, etwa das deutsche Netzwerkdurchsetzungsgesetz, das seit Anfang des Jahres gilt. Facebook soll rechtswidrige Inhalte schneller und zuverlässiger entfernen, aber Computerprogramme und die bisherigen Moderatoren reichen dafür nicht aus. 500 echte Menschen stellte das Unternehmen daher zusätzlich ein, um Beiträge per Hand zu überprüfen. Weltweit will Facebook dieses Jahr 10 000 Menschen einstellen, um Hass und Hetze im Netz zu bekämpfen.

Allerdings sollten Menschen nicht wie Computer behandelt werden: Ende 2016 machte das SZ-Magazin öffentlich, unter welchen Bedingungen das Löschteam von Facebook in Deutschland arbeitete: Die Mitarbeiter mussten jeweils bis zu 2000 Beiträge pro Tag sichten und erhielten kaum Betreuung. Dabei wurden sie mit Videos von Hinrichtungen, Folter und Tierquälerei konfrontiert. Seit der Enthüllung sollen sich die Bedingungen verbessert haben.

Bis das letzte Bild gescannt ist

Upload-Filter sind vorerst gescheitert, dem EU-Parlament sei Dank. Aber eine Allianz aus Lobbyisten und Sicherheitspolitikern will weiter Block-Mechanismen über das Internet legen. Das ist brandgefährlich. Kommentar von Jannis Brühl mehr...