Umstrittene Löschpraxis Youtube tilgt Dokumentation von Kriegsverbrechen

Algorithmen sollen bei Youtube menschliche Kontrolleure ersetzen. Doch noch machen sie teils schwerwiegende Fehler.

(Foto: AFP (M))
  • Youtube verlässt sich auf künstliche Intelligenz, um die Propagandavideos von Terrororganisationen automatisch zu erkennen und zu entfernen.
  • Teilweise entscheiden Algorithmen selbständig, ob sie Videos löschen.
  • Tausende Videos, die Kriegsverbrechen aus dem Syrienkonflikt dokumentieren, fielen der Löschpraxis zum Opfer.
  • Mittlerweile hat sich Youtube entschuldigt und einige der Videos wiederhergestellt.
Von Hakan Tanriverdi

Es klingt nach der perfekten Lösung: Algorithmen sichten und löschen Terrorpropaganda und andere verstörende Videos auf Youtube. Kein Mensch muss sich die brutale Gewalt anschauen, Maschinen nehmen den menschlichen Kontrolleuren die belastende Arbeit ab. Anfang August gab Youtube bekannt, dass drei Viertel aller Videos, die gewaltverherrlichenden Extremismus zeigten, von künstlicher Intelligenz erkannt und gelöscht worden seien, bevor ein Mensch diese als verstörend meldete.

Wenige Wochen später muss sich Youtube entschuldigen. Man habe mitunter falsche Entscheidungen getroffen, heißt es aus dem Unternehmen. Aktivisten, die in der New York Times zu Wort kommen, formulieren es deutlicher: Youtube habe Tausende Videos gelöscht und dadurch womöglich die Aufklärung von Internationalen Kriegsverbrechen erschwert.

7 Fakten zum syrischen Bürgerkrieg

Was Sie wissen sollten - fünf Jahre nach dem Beginn des syrischen Bürgerkrieg das Wichtigste zu seinen Ursachen und Folgen kurz erklärt. mehr ... Kompaktwissen

Dabei geht es unter anderem um den Prozess gegen Mahmoud Mustafa Busayf Al-Werfalli, der in Libyen Kommandeur der Al-Saiqa Brigade gewesen sein soll. Die Brigaden waren Teil der Libyschen Nationalen Armee. Kürzlich erließ der Internationale Strafgerichtshof Haftbefehl und warf ihm vor, für den Tod von 33 Menschen verantwortlich zu sein. Die Anklageschrift beschreibt sieben Vorfälle. Bei allen heißt es, dass das dazugehörige Videomaterial über soziale Netzwerke verbreitet wurde - also Seiten wie Youtube. Die Strafverfolger stützen ihren Haftbefehl also komplett auf Material, das sie im Internet gefunden haben.

Plattformen wie Youtube stehen vor einem Dilemma

Das sei seine "Entwicklung, die so kommen musste", schreibt Emma Irving, die in den Niederlanden an der Universität Leyden Völkerrecht lehrt. Viele Konflikte würden heutzutage über soziale Netzwerke dokumentiert. Umso wichtiger ist es, dass Plattformen wie Youtube sorgsam mit dem wichtigen Material umgehen.

Genau wie Facebook und Twitter kämpft Youtube seit Jahren gegen Terroristen, die die Plattform für ihre Propaganda missbrauchen. Gerade der Islamische Staat setzte lange Zeit auf professionell produzierte Filme, um die Taten seiner Anhänger in aller hochauflösenden Grausamkeit in der Welt zu verbreiten. Auf Youtube bleiben derartige Videos teils wochenlang online.

Die Plattformbetreiber stehen vor einem Dilemma: Mittlerweile wird derart viel Material hochgeladen, dass unmöglich alles von Menschen gesichtet werden kann. Außerdem ist es ein extrem belastender, teilweise traumatisierender Job, die Videos von Hinrichtungen und Folterungen anzuschauen und zu löschen.

Algorithmen sollen effizienter und schneller löschen als Menschen

Umso verlockender erscheint die Vorstellung einer künstlichen Intelligenz, die derartige Gewaltdarstellungen selbst erkennt, wie es Googles Chefjurist Kent Walker kürzlich in einem Blogpost beschrieb. Google und seine Tochterfirma Youtube verlassen sich auf Maschinen, die Milliarden Datenpunkte analysieren, um beurteilen zu lernen, welche Inhalte Videos zeigen. Die Unternehmen hoffen, dass die Algorithmen effizienter und schneller - und damit auch günstiger - arbeiten als Menschen.

Im alten System hatten menschliche Beurteilungen die entscheidende Rolle gespielt. 63 Organisationen, sogenannte Trusted Flagger, konnten Youtube warnen, wenn sie ein Video mit extremistischer oder terroristischer Propaganda entdeckten. Lediglich die Entscheidung, in welcher Reihenfolge die Youtube-Mitarbeiter diesen Hinweisen nachgehen sollten, traf ein Algorithmus.