Verschwörungstheorien:Youtube löscht mehr als ein Video pro Sekunde

Youtube

Youtube ist die mit Abstand größte Videoplattform im Netz - und ein Tummelplatz für Verschwörunstheorien und politische Propaganda.

(Foto: AFP)
  • Youtube veröffentlicht erstmals einen Transparenzbericht.
  • Die Videoplattform entfernte allein im vierten Quartal 2017 mehr als acht Millionen Videos, die gegen Youtubes Gemeinschaftsstandards verstießen.
  • Ein Großteil der Inhalte wurde automatisch von Maschinen identifiziert. Dieses Vorgehen birgt Risiken.

Von Simon Hurtz

Die Verschwörungstheorie, die Alex Jones zu wirr ist, um sie öffentlich zu verbreiten, muss noch erfunden werden. Der US-Moderator machte lange die US-Regierung für die Anschläge des 11. Septembers verantwortlich und behauptet, dass sich Juden als Mitglieder des Ku-Klux-Klans verkleidet hätten, um die rechtsradikalen Demonstranten von Charlottesville zu diskreditieren. Jones' Radiosendung erreicht Millionen US-Amerikaner, seine Verschwörungstheorien haben ihn zum Posterboy der Rechten und Rechtsextremen gemacht.

Neben dem Portal Infowars ist Youtube der wichtigste Kanal für Jones, um seine Inhalte unters Volk zu bringen. Vergangene Woche veröffentlichte die Organisation Media Matters einen Clip, der Jones unter anderem dabei zeigt, wie er das Massaker an der Sandy-Hook-Schule 2012 als "Inside Job" bezeichnet, der nur dazu diene, strengere Waffengesetze durchzusetzen. Für diese Behauptung haben ihn die Angehörigen der Opfer kürzlich verklagt.

Youtube reagierte umgehend und sperrte die Inhalte - allerdings nicht die ursprüngliche Verschwörungstheorie, sondern die Zusammenstellung von Media Matters, die Jones' absurde Behauptungen entlarvt. Das Video blieb tagelang offline. Erst nachdem die Organisation öffentlich protestierte und der Guardian bei Youtube nachhakte, machte das Unternehmen die Sperrung rückgängig.

Maschinen erkennen strafbare Inhalte

Solche Fälle sind es, die Youtube in den vergangenen Monaten unter Druck gebracht haben. Harmlose Videos werden ohne Vorwarnung gelöscht und die Konten der Uploader gesperrt. Verschwörungstheorien bleiben stehen und tauchen manchmal sogar in den Top-Empfehlungen auf, die Youtube automatisch generiert und den Urhebern damit millionenfache Verbreitung beschert. Vor diesem Hintergrund ist der Transparenzbericht besonders interessant, den Youtube in der Nacht zum Dienstag erstmals veröffentlicht hat:

  • Zwischen Oktober und Dezember 2017 wurden knapp 8,3 Millionen Inhalte entfernt. Das entspricht mehr als einem Video pro Sekunde. Einen Großteil davon haben nicht Menschen, sondern Maschinen gemeldet: 6,7 Millionen Videos wurden automatisiert von Youtubes Algorithmen erkannt und in der Folge gelöscht.
  • Drei Viertel dieser Clips hatten null Views. Youtubes Algorithmen haben also zugeschlagen, bevor irgendjemand den Inhalt zu Gesicht bekommen hat. Anfang 2017 wurden acht Prozent der Videos, die aufgrund "gewalttätigen Extremismus" entfernt wurden, weniger als zehn Mal angeschaut. Im Juni 2017 begann Youtube, Machine Learning einzusetzen, um solche Inhalte zu identifizieren. Seitdem ist der Anteil auf mehr als 50 Prozent gestiegen.
  • Im vierten Quartal haben Nutzer und NGOs rund 9,3 Millionen Videos gemeldet, weil diese angeblich gegen Youtubes Gemeinschaftsstandards verstießen. Die meisten der sogenannten Flags kamen aus Indien und den USA, Deutschland folgt auf Rang fünf.

Die Zahlen zeigen, dass künstliche Intelligenz helfen kann, um strafbare Inhalte zu erkennen und schnellstmöglich zu entfernen. Das ist nicht nur für die Nutzer ein Segen, die von diesen Videos verschont bleiben. Die Maschinen entlasten auch menschliche Mitarbeiter, die im Akkord verstörende Darstellungen von Gewalt bis Kinderpornografie sichten müssen. Ende 2018 sollen bei Google 10 000 sogenannte Content Moderatoren dieser belastenden Tätigkeit nachgehen. Auch Facebook und andere Tech-Firmen setzen Zehntausende Menschen ein, um ihre Plattformen sauber zu halten.

Computer entscheiden, was gesagt werden darf

Doch die Zahlen verdeutlichen auch einen Trend, den viele Experten für gefährlich halten: Computer entscheiden, was geschrieben, gesagt und gepostet werden darf. Nicht alle Inhalte sind eindeutig strafbar, oft entscheiden Nuancen, ob Aussagen von der Meinungsfreiheit gedeckt sind. Wenn sich schon erfahrene Juristen uneins sind - wie sollen dann Maschinen beurteilen, wie verrückt eine Verschwörungstheorie sein muss, bis sie die Grenze zur Verleumdung überschreitet?

Aktuell setzt Youtube noch auf ein System, in dem meist Menschen die finalen Entscheidungen treffen und Algorithmen sie dabei nur unterstützen. Doch in Zukunft dürfte sich das Verhältnis mehr und mehr in Richtung der Maschinen verschieben. Täglich werden im Netz Abermillionen Fotos veröffentlicht, Videos hochgeladen und Beiträge geschrieben. Es bräuchte Millionen Menschen, um alle Inhalte zu prüfen.

Kein Wunder, dass Facebook-Chef Mark Zuckerberg behauptet, dass künstliche Intelligenz bald Falschnachrichten und Hasskommentare identifiziert oder Terrorpropaganda und Wahlmanipulationen entlarvt. In fünf bis zehn Jahren soll es seiner Meinung nach so weit sein. Hoffentlich sind die Maschinen bis dahin etwas intelligenter als heute.​

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: