Internet Schutz- oder Zensurmaschine?

Es gibt Software, die illegale Inhalte schon beim Hochladen unterdrücken kann. Die EU-Kommission will damit jetzt Verbotenes im Netz automatisch sperren lassen. Aber Kritiker warnen vor der zu großen Macht der Filter.

Von Jannis Brühl

Entscheiden bald Maschinen, welche Bilder wir sehen, welche Sätze wir online schreiben dürfen? In Deutschland streitet man noch über das Netzwerkdurchsetzungsgesetz, das Facebook und Twitter zwingt, "offensichtlich Rechtswidriges" zu löschen. Auf EU-Ebene zeichnet sich schon der nächste Streit ab über die Frage, wann die Kontrolle von Online-Inhalten in Zensur umschlägt. Kritiker befürchten ein umfassendes System, das Videos, Bilder, Lieder und Texte automatisch filtert.

Es geht um eine geplante EU-Richtlinie zum Urheberrecht. Die Kommission will Online-Plattformen verpflichten, sogenannte Upload-Filter einzusetzen. Solche Filter gleichen alle Inhalte, die Nutzer hochladen, mit einer schwarzen Liste ab. Übereinstimmungen werden sofort gelöscht - außer der Nutzer einigt sich mit den Inhabern der Rechte an dem Inhalt. Eigentlich soll diese Reform sicherstellen, dass Musik- und Filmindustrie finanziell beteiligt werden können, wenn Nutzer geschützte Lieder oder Filme hochladen. Die Piraten-Abgeordnete Julia Reda nennt die Filter aber "Zensurmaschinen". Sie sitzt im zuständigen Rechtsausschuss des EU-Parlaments; am Montag veröffentlichte sie mit anderen Abgeordneten einen fraktionsübergreifenden Aufruf an den Rat, die Filter-Pflicht zu kippen.

Für Reda geht es um Vorzensur: "Algorithmen sollen komplexe Entscheidungen über Legalität und Illegalität von Inhalten treffen, die nicht einmal Gerichte immer treffen können." Der Passus, den die Kommission vorschlägt, ist vage, könnte theoretisch auch für Texte gelten. Er würde zumindest große Plattformen zwingen, automatisch jeden Beitrag zu prüfen. Eigentlich hatte der Europäische Gerichtshof bereits 2012 geurteilt, dass das pauschale Vorfiltern aller Inhalte gegen das Recht auf Privatsphäre und Informationsfreiheit verstößt. Nun will die Kommission es trotzdem einführen. Sie verweist darauf, dass es ein Beschwerdeverfahren für Nutzer geben soll, falls Beiträge ungerechtfertigt gesperrt würden. Der Rechtsausschuss des Parlaments soll im Frühjahr entscheiden, ob er den Vorstoß der Kommission unterstützt.

Eine Software unterdrückt illegale Inhalte schon beim Hochladen - wird die Macht der Filter zu groß?

Nicht alle Upload-Filter sind umstritten. Microsofts Technologie PhotoDNA etwa stellt sicher, dass der Mainstream des Internets überhaupt erträglich ist. Im US-Bundesstaat Virginia sitzt das "Nationale Zentrum für vermisste und ausgebeutete Kinder", das im Auftrag des US-Kongresses Kindesmissbrauch bekämpft. Dessen Datenbank ist ein Horrorkabinett: Millionen Fotos, die zeigen, wie Kinder gequält werden. Sie bilden die Grundlage der schwarzen Liste für PhotoDNA. Schließlich versuchen Täter ständig, entsprechende Inhalte ins Netz zu laden. Das Programm berechnet aus den bereits bekannten Bildern sogenannte Hashwerte, eine Art digitaler Fingerabdruck. Netzwerke wie Facebook scannen mit dieser Software Inhalte, die Nutzer hochladen. Entdeckt PhotoDNA einen bekannten Hashwert, werden der Upload blockiert und Ermittler alarmiert.

PhotoDNA lasse sich aber nicht mit den geplanten EU-Filtern vergleichen, sagt Julia Reda: "Bilder von Kindesmissbrauch sind immer illegal. Bei Kunst und Meinungsäußerungen wird es viel schwieriger." Regierungen drängen die Plattformen, immer mehr zu filtern. Auch ein früher Entwurf des deutschen Netzdurchsetzungsgesetzes beinhaltete diese Pflicht.

Neben PhotoDNA ist auch Googles Content ID ein System, an dem sich künftige verpflichtende Filter orientieren würden. In Content ID haben 8000 Rechteinhaber Hashwerte hinterlegt, anhand derer Lieder, Musikvideos oder Spielfilme sofort erkannt werden. Youtube erklärt, man scanne "Hunderte Jahre" Videomaterial am Tag. Immer wieder machen die Maschinen Fehler; automatisiertes Blockieren lässt keinen Spielraum für menschliche Einschätzungen. Anfang des Monats meldete Content ID eine angebliche Urheberrechtsverletzung für ein Video, das zehn Stunden weißes Rauschen abspielte. In einem anderen Fall schlug es bei einer Aufnahme von Vogelgezwitscher an. Algorithmen haben kein Gefühl für Parodien oder Kontext. Eine Ex-NSA-Mitarbeiterin arbeitet derzeit an einem Programm, das Nazi-Symbole in Bildern erkennen soll. Die Herausforderung: Hakenkreuze von hinduistischen Swastikas unterscheiden.

Die Politik hat Google, Facebook, Twitter und Microsoft schon eingespannt: 2016 kündigten sie an, eine Datenbank mit Terrorpropaganda anzulegen, um entsprechende Inhalte zu filtern. Videos von Enthauptungen und Verherrlichung des IS sollen so unsichtbar bleiben. Im Dezember 2017 gaben sie bekannt, dass darin 40 000 Hashwerte, also unerwünschte Beiträge, gespeichert waren. Wie schief die Algorithmen liegen können, zeigte sich vergangenen Sommer. Elliot Higgins ist bekannt für seine Online-Recherchen über Kriegsgebiete. Er nutzt Fotos, Videos, Beiträge in sozialen Medien und Geodaten, um Lügen der Kriegsparteien zu entlarven. Dann traf es sein historisch wertvolles Archiv, in dem er Hunderte Videos aus dem syrischen Krieg dokumentiert. 200 Playlists, in denen er Amateurvideos gesammelt hatte, wurden gelöscht, darunter Material, das Nachwirkungen chemischer Angriffe gezeigt hätte. Wohl nur weil Higgins prominent war, half ihm Google schnell, das Archiv wiederherzustellen.