Internet Künstliche Intelligenz löscht Youtube-Videos

Allein zwischen Oktober und Dezember 2017 löschte Youtube 8,3 Millionen Videos wegen bedenklicher Inhalte. Dabei bedient sich der Konzern Künstlicher Intelligenz, um solche Filme zu identifizieren.

Von Simon Hurtz

Vergangene Woche veröffentlichte die Organisation Media Matters einen Clip, der den rechten Verschwörungstheoretiker Alex Jones unter anderem dabei zeigt, wie er auf dem Videoportal Youtube ein Schulmassaker als "Inside Job" bezeichnet. Youtube reagierte umgehend und sperrte die Inhalte - allerdings die Zusammenstellung von Media Matters, die Jones' absurde Behauptungen entlarvt.

Solche Fälle sind es, die Youtube in den vergangenen Monaten unter Druck gebracht haben. Harmlose Videos werden ohne Vorwarnung gelöscht, Verschwörungstheorien bleiben stehen. Vor diesem Hintergrund ist der Transparenzbericht besonders interessant, den Youtube in der Nacht zum Dienstag erstmals veröffentlicht hat. Zwischen Oktober und Dezember 2017 wurden knapp 8,3 Millionen Inhalte entfernt. 6,7 Millionen Videos davon wurden automatisiert von Youtubes Algorithmen erkannt und in der Folge gelöscht. Bei drei Vierteln dieser Clips schlugen Youtubes Algorithmen zu, bevor irgendjemand den Inhalt sehen konnte. Seit Youtube Machine Learning einsetzt, um solche Inhalte zu identifizieren, steigt der Anteil solcher Videos, die gar nicht mehr live gestellt werden oder die nur wenige Zuschauer haben.

Die Zahlen zeigen, dass künstliche Intelligenz helfen kann, strafbare Inhalte zu erkennen und schnell zu entfernen. Das ist nicht nur für die Nutzer ein Segen, die von diesen Videos verschont bleiben. Die Maschinen entlasten auch menschliche Mitarbeiter, die im Akkord verstörende Darstellungen von Gewalt bis Kinderpornografie sichten müssen. Doch die Zahlen verdeutlichen auch einen Trend, den viele Experten für gefährlich halten: Computer entscheiden, was geschrieben, gesagt und gepostet werden darf. Wenn sich schon erfahrene Juristen uneins sind - wie sollen dann Maschinen solche Fragen beurteilen?

Dennoch glaubt etwa auch Facebook-Chef Mark Zuckerberg, dass künstliche Intelligenz bald Falschnachrichten und Hasskommentare identifizieren oder Terrorpropaganda und Wahlmanipulationen entlarven kann. In fünf bis zehn Jahren soll es seiner Meinung nach so weit sein. Hoffentlich sind die Maschinen bis dahin etwas intelligenter als heute.