Süddeutsche Zeitung

Gewalt im Internet:Wie Youtube Kinder schützen will

Die Plattform will stärker gegen extremistische und gewaltverherrlichende Videos vorgehen. 10 000 Mitarbeiter sollen Computern beibringen, was gelöscht werden muss - und was nicht.

Von Julian Dörr

Man muss zu Beginn ein paar Zahlen nennen, um die Dimension des Problems überhaupt begreifen zu können. 400 Stunden. So viel Videomaterial wird bei Youtube in der Minute hochgeladen. In jeder Minute. Jeden Tag. Was also bedeutet, dass die Plattform täglich um etwas mehr als 65 Jahre wächst. Dass sich unter diesen 65 Jahren Videos nun auch gewaltverherrlichende, jugendgefährdende oder sonst wie problematische Inhalte befinden, ist nicht weiter überraschend. Dass diese 65 Jahre pro Tag kein Mensch mehr sichten und kontrollieren kann, aber auch. Weshalb Google, der Mutterkonzern hinter Youtube, jetzt angekündigt hat, mehr Inhalte-Prüfer einzustellen.

Mehr als 10 000 Mitarbeiter sollen im kommenden Jahr bei Youtube und anderen Google-Töchtern dafür sorgen, dass hochgeladene Inhalte auch den Vorgaben des Unternehmens entsprechen. Das verkündete Youtube-Chefin Susan Wojcicki in einem Blogpost. Wie viele davon tatsächlich neu dazukommen und wie viele menschliche Prüfer die Firma schon jetzt beschäftigt, verriet sie nicht. Das US-Medium Buzzfeed zitiert informierte Kreise, die von 2000 neuen Mitarbeitern sprechen.

Man kann diese Anstellungswelle durchaus als eine Reaktion auf die Kontroversen der vergangenen Wochen lesen. Youtube wurde in jüngster Zeit immer wieder vorgeworfen, seine eigenen Richtlinien nicht effektiv durchsetzen zu können. Britische und amerikanische Medien berichteten von Videos, in denen Kinder misshandelt und gequält werden - und die millionenfach angeklickt wurden. Von den Youtube-Prüfern blieben diese Videos anfänglich unbemerkt. Ebenfalls durch den Filter schlüpften die verstörenden und brutalen Animationsfilmchen, die ihren Weg auf den eigentlich kindersicheren Kinderkanal der Videoplattform fanden. Youtube reagierte. Man verschärfte einmal mehr seine Richtlinien, kündigte Kanäle und entfernte Tausende Videos.

Auch bei Youtube setzt man auf künstliche Intelligenz und maschinelles Lernen

Nun tut sich das Unternehmen auch deshalb so schwer im Umgang mit unerwünschten Inhalten, weil die Debatte darüber am eigenen Selbstverständnis kratzt. Youtube sieht sich selbst als offene und freie Plattform. Wojcicki spricht in ihrem Blogpost von einer "Kraft, die für Kreativität, Lernen und den Zugang zu Informationen einsteht". Aufgeklärte Nutzer schaffen Inhalte für aufgeklärte Nutzer. "Ich habe gesehen, wie Aktivisten Youtube einsetzen, um sozialen Wandel zu befeuern", so Wojcicki, "um Protest zu mobilisieren oder um Kriegsverbrechen zu dokumentieren." Sie habe aber auch eine andere, problematischere Seite von Youtube kennenlernen müssen. Menschen, die die Offenheit der Plattform ausnutzen, um andere zu manipulieren, zu belästigen oder zu verletzen. Gegen eben diese Inhalte will man bei Youtube nun verstärkt vorgehen. Mithilfe von Menschen. Und mithilfe von Maschinen.

Die 10 000 Inhalte-Prüfer sollen nicht nur Videos entfernen, die gegen die Richtlinien der Plattform verstoßen. Sie sollen vor allem den Computern beibringen, wie sich problematische Inhalte entdecken und identifizieren lassen. Auch bei Youtube setzt man auf künstliche Intelligenz und maschinelles Lernen.

Ein Ansatz, den das Unternehmen seit dem Sommer bei gewalttätigen, extremistischen Inhalten erprobt. Chefin Wojcicki lobt den Erfolg, es gab aber kürzlich auch Kritik, als Videos von Menschenrechtsverletzungen in Syrien automatisch gelöscht wurden, die sonst zur Dokumentation von Kriegsverbrechen verwendet hätten werden können. Unterstützt von diesen Algorithmen könnten die menschlichen Prüfer bei Youtube beinahe fünf Mal so viele Videos wie zuvor von der Seite entfernen - mehr als 150 000 seit Juni. 98 Prozent der Videos, die Youtube heute wegen der Darstellung von extremistischer Gewalt löscht, werden von Computern identifiziert. Mithilfe dieser trainierten Software sei es Youtube und seinen menschlichen Prüfern möglich, einen Großteil der gewalttätigen Videos in diesem Bereich innerhalb weniger Stunden nach deren Upload schon wieder zu löschen. Trotz aller Technologie braucht es aber die menschlichen Prüfer, die Entscheidungen abwägen. Das dürfte Youtube vor eine ähnliche Herausforderung stellen wie die Social-Media-Plattform Facebook. Deren Mitarbeiter, die das Netzwerk auf brutale oder kinderpornografische Inhalte untersuchen, sind von ihrer Arbeit oft schwer traumatisiert.

Die Erfahrungen im Umgang mit extremistischen Inhalten will man jetzt nutzen, um Youtube für Kinder sicherer zu machen. Dahinter steckt selbstverständlich kein uneigennütziger Impuls. Denn ein fahrlässiger Umgang mit problematischen Inhalten und Kommentaren hat für Youtube finanzielle Folgen.

In den vergangenen Wochen zogen einige große Unternehmen, darunter Adidas und Hewlett-Packard, ihre Werbung von der Videoplattform zurück, weil sie im Kontext sexuell expliziter Kommentare unter Aufnahmen von Kindern auftauchte. Youtube entfernte daraufhin Anzeigen von beinahe zwei Millionen Videos und mehr als 50 000 Kanälen, die sich als familienfreundlich ausgaben. In Zukunft wolle man "gewissenhaft auswählen, auf welchen Kanälen Werbung gezeigt werden darf", schreibt Wojcicki.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.3778787
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 06.12.2017/doer
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.