Upload-Filter Youtube scannt "hunderte Jahre" Videomaterial am Tag

Neben PhotoDNA ist auch Googles Content ID ein System, an dem sich künftige verpflichtende Filter orientieren würden. In Content ID haben 8000 Rechteinhaber Hashwerte hinterlegt, anhand derer Lieder, Musikvideos oder Spielfilme sofort erkannt werden. Youtube erklärt, man scanne "hunderte Jahre" Videomaterial am Tag.

Aber immer wieder machen die Maschinen Fehler. Das automatisierte Blockieren lässt keinen Spielraum für Einschätzungen, die Menschen treffen würden. Anfang Januar meldete Content ID zum fünften Mal eine angebliche Urheberrechtsverletzung für ein Video, das zehn Stunden weißes Rauschen abspielte. In einem anderen Fall schlug es bei einer Aufnahme von Vogelgezwitscher an.

Algorithmen können keine Parodien erkennen und haben kein Gefühl für Kontext. Reda sagt: "Teilweise versuchen sie, Daesh-Flaggen zu erkennen und erwischen dabei auch Videos von Menschenrechtlern." Eine Ex-NSA-Mitarbeiterin arbeitet derzeit an einem Programm, das Neonazi-Symbole in Bildern erkennen soll. Die Herausforderung: Hakenkreuze von hinduistischen Swastikas zu unterscheiden.

Youtube tilgt Dokumentation von Kriegsverbrechen

Algorithmen sollen terroristische Propaganda entfernen. Erst preist Youtube die Erfolge, doch Tausende Videos aus dem Syrien-Krieg wurden voreilig gelöscht. Von Hakan Tanriverdi mehr ...

Die Politik hat auch Google, Facebook, Twitter und Microsoft eingespannt: 2016 kündigten sie an, eine Datenbank mit Terrorpropaganda anzulegen, um entsprechende Inhalte zu filtern. Videos von Enthauptungen und Verherrlichung des IS soll so von ihren Seiten ferngehalten werden. Im Dezember 2017 gaben sie bekannt, dass darin schon 40 000 Hashwerte und damit unerwünschte Beiträge gespeichert waren.

Wie schief die Algorithmen liegen können, zeigte sich vergangenen Sommer. Elliot Higgins ist bekannt für seine Online-Recherchen über Kriegsgebiete. Er nutzt Fotos, Videos und Geodaten, um Lügen der Kriegsparteien zu entlarven. Dann traf es sein historisch wertvolles Archiv, in dem er Hunderte Videos aus dem syrischen Krieg dokumentiert. Higgins erzählt: "Plötzlich war mein Account gesperrt. Als er wieder online war, waren alle meine Videos weg." 200 Playlists, in denen er Amateurvideos gesammelt hatte, seien gelöscht worden, darunter Material, das Auswirkungen chemischer Angriffe gezeigt hätte. Auch aus Libyen wurde mögliches Beweismaterial für Kriegsverbrechen getilgt. Immerhin half Google Higgins, das Archiv wiederherzustellen. Allerdings ist er als öffentliche Person privilegiert und hatte ohnehin gute Kontakte zu Google. Der Durchschnittsnutzer hat erfahrungsgemäß weniger Chancen auf Erfolg, wenn er sich über eine falsche Löschung beschwert.

Sprach-Filter gegen Hassrede

Texte und Sprache korrekt zu filtern, kann für Algorithmen noch schwieriger sein - der Kontext ist noch komplexer. Googles Denkfabrik Jigsaw hat in den vergangenen Jahren ein differenziertes System entwickelt: Conversation AI soll "Hassrede" erkennen, jenen vage definierte Form von Hetze gegen bestimmte Menschengruppen.

Allerdings ist das mit dem Kontext so eine Sache. In einem Test der Software stellte Reporter David Auerbach vergangenes jahr fest: Das System stufte die vulgären, aber freundlichen Worte "I fucking love you man. Happy birthday" als "toxisch" ein, ebenso wie "Du bist kein Rassist". Für unproblematisch hielt das System dagegen den Satz "Hitlers größter Fehler war, den Job nicht zu Ende zu bringen."

Upload-Filter sind eine mächtige Technologie, die für legitime Zwecke eingesetzt werden kann, etwa um strafbare Inhalte aus dem Strom der Beiträge zu fischen. Aber was, wenn sie in den Händen von Politikern landet, die sie missbrauchen? Noch dazu, wenn Regierungen das komplette Internet des Landes kontrollieren wie in China? Diego Naranjo von Edri sagt: "Einmal installiert, können sie für alles eingesetzt werden." Videos von Politikern, die die Regierung kritisieren, könnten aus dem Netz ferngehalten werden. Sprachfilter könnten auf den Slang einer bestimmten Minderheit eingestellt werden. Die Dissidenten der Zukunft müssen vielleicht künstliche Intelligenz rückwärts denken, wenn sie ihre Geheimsprache entwickeln.

Die gefährliche Sehnsucht nach dem Ausschaltknopf

Bots, Filterblasen, Fake News, Facebook: Viele geben dem Internet die Schuld für den Aufstieg von Trump und AfD. Dieser Diskurs ist falsch - weil er die wahren Ursachen politischer Probleme verschleiert. Kommentar von Jannis Brühl mehr...