Umstrittene Löschpraxis:Youtube tilgt Dokumentation von Kriegsverbrechen

Lesezeit: 3 min

Algorithmen sollen bei Youtube menschliche Kontrolleure ersetzen. Doch noch machen sie teils schwerwiegende Fehler. (Foto: AFP (M))
  • Youtube verlässt sich auf künstliche Intelligenz, um die Propagandavideos von Terrororganisationen automatisch zu erkennen und zu entfernen.
  • Teilweise entscheiden Algorithmen selbständig, ob sie Videos löschen.
  • Tausende Videos, die Kriegsverbrechen aus dem Syrienkonflikt dokumentieren, fielen der Löschpraxis zum Opfer.
  • Mittlerweile hat sich Youtube entschuldigt und einige der Videos wiederhergestellt.

Von Hakan Tanriverdi

Es klingt nach der perfekten Lösung: Algorithmen sichten und löschen Terrorpropaganda und andere verstörende Videos auf Youtube. Kein Mensch muss sich die brutale Gewalt anschauen, Maschinen nehmen den menschlichen Kontrolleuren die belastende Arbeit ab. Anfang August gab Youtube bekannt, dass drei Viertel aller Videos, die gewaltverherrlichenden Extremismus zeigten, von künstlicher Intelligenz erkannt und gelöscht worden seien, bevor ein Mensch diese als verstörend meldete.

Wenige Wochen später muss sich Youtube entschuldigen. Man habe mitunter falsche Entscheidungen getroffen, heißt es aus dem Unternehmen. Aktivisten, die in der New York Times zu Wort kommen, formulieren es deutlicher: Youtube habe Tausende Videos gelöscht und dadurch womöglich die Aufklärung von Internationalen Kriegsverbrechen erschwert.

Syrien
:7 Fakten zum syrischen Bürgerkrieg

Was Sie wissen sollten - fünf Jahre nach dem Beginn des syrischen Bürgerkrieg das Wichtigste zu seinen Ursachen und Folgen kurz erklärt.

Von Markus C. Schulte von Drach

Dabei geht es unter anderem um den Prozess gegen Mahmoud Mustafa Busayf Al-Werfalli, der in Libyen Kommandeur der Al-Saiqa Brigade gewesen sein soll. Die Brigaden waren Teil der Libyschen Nationalen Armee. Kürzlich erließ der Internationale Strafgerichtshof Haftbefehl und warf ihm vor, für den Tod von 33 Menschen verantwortlich zu sein. Die Anklageschrift beschreibt sieben Vorfälle. Bei allen heißt es, dass das dazugehörige Videomaterial über soziale Netzwerke verbreitet wurde - also Seiten wie Youtube. Die Strafverfolger stützen ihren Haftbefehl also komplett auf Material, das sie im Internet gefunden haben.

Plattformen wie Youtube stehen vor einem Dilemma

Das sei seine " Entwicklung, die so kommen musste", schreibt Emma Irving, die in den Niederlanden an der Universität Leyden Völkerrecht lehrt. Viele Konflikte würden heutzutage über soziale Netzwerke dokumentiert. Umso wichtiger ist es, dass Plattformen wie Youtube sorgsam mit dem wichtigen Material umgehen.

Genau wie Facebook und Twitter kämpft Youtube seit Jahren gegen Terroristen, die die Plattform für ihre Propaganda missbrauchen. Gerade der Islamische Staat setzte lange Zeit auf professionell produzierte Filme, um die Taten seiner Anhänger in aller hochauflösenden Grausamkeit in der Welt zu verbreiten. Auf Youtube bleiben derartige Videos teils wochenlang online.

Die Plattformbetreiber stehen vor einem Dilemma: Mittlerweile wird derart viel Material hochgeladen, dass unmöglich alles von Menschen gesichtet werden kann. Außerdem ist es ein extrem belastender, teilweise traumatisierender Job, die Videos von Hinrichtungen und Folterungen anzuschauen und zu löschen.

Algorithmen sollen effizienter und schneller löschen als Menschen

Umso verlockender erscheint die Vorstellung einer künstlichen Intelligenz, die derartige Gewaltdarstellungen selbst erkennt, wie es Googles Chefjurist Kent Walker kürzlich in einem Blogpost beschrieb. Google und seine Tochterfirma Youtube verlassen sich auf Maschinen, die Milliarden Datenpunkte analysieren, um beurteilen zu lernen, welche Inhalte Videos zeigen. Die Unternehmen hoffen, dass die Algorithmen effizienter und schneller - und damit auch günstiger - arbeiten als Menschen.

Im alten System hatten menschliche Beurteilungen die entscheidende Rolle gespielt. 63 Organisationen, sogenannte Trusted Flagger, konnten Youtube warnen, wenn sie ein Video mit extremistischer oder terroristischer Propaganda entdeckten. Lediglich die Entscheidung, in welcher Reihenfolge die Youtube-Mitarbeiter diesen Hinweisen nachgehen sollten, traf ein Algorithmus.

Das neue Vorgehen gibt den Maschinen viel mehr Macht. Bereits Anfang August wies Walker darauf hin, dass es zu Problemen führen könne, wenn Algorithmen eigenständig entscheiden, ob Videos gelöscht werden sollen. "Ein Video, das einen Terroranschlag zeigt, könnte Berichterstattung von BBC sein, aber auch Gewaltverherrlichung." Mit diesen Bedenken sollte Walker Recht behalten.

Unter anderem blockierte Youtube die Kanäle der Organisation Airwars, die internationale Luftangriffe dokumentiert, der Nachrichtenagentur Qasioun News und des britischen Journalisten Eliot Higgins. Am 12. August beschwerte sich Higgins, der das investigative Recherche-Netzwerk Bellingcat gegründet hat, dass sein Kanal gesperrt wurde.

Mittlerweile sind viele der Videos wieder online - aber nur, weil die Uploader Youtube darauf hingewiesen hatten. Wenn die Betroffenen nicht merken, dass ihre Videos nicht mehr zu sehen sind, oder keine Möglichkeit haben, sich bei Youtube zu beschweren, bleibt das Material also weiter unauffindbar.

"Die Geschichte dieses schrecklichen Krieges verschwindet vor unseren Augen"

Eliot Higgins hält das Vorgehen von Youtube für hochproblematisch. Die restriktive Praxis erschwere es Aktivisten und Journalisten, die Kriegsverbrechen im syrischen Bürgerkrieg zu dokumentieren. "Teilweise werden drei Videos aus Tausenden als problematisch erkannt und der gesamte Kanal wird gelöscht", sagt er. Einige der Videos seien bereits seit bis zu fünf Jahren online. Im Jahr 2017 träfen dann Algorithmen eine Entscheidung und wendeten sie rückwirkend an.

Airwars-Leiter Chris Woods befürchtet schwerwiegende Konsequenzen, die nicht nur die Uploader, sondern die gesamte Gesellschaft sowie die nachfolgenden Generationen betreffen könnten. Der New York Times sagte er: "Vor unseren Augen verschwindet die Geschichte dieses schrecklichen Krieges".

© SZ.de - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Künstliche Intelligenz
:Die Legende von Facebooks wildgewordenen Terminator-Bots

Eine Geschichte macht die Runde: Zwei Chat-Programme von Facebook entwickeln eine eigene Sprache und versetzen ihre menschlichen Herren in Panik. In Wahrheit aber muss die Apokalypse noch warten.

Von Michael Moorstedt

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: