Matt Watson atmet erst mal tief durch, bevor er in die Kamera blickt und zu reden beginnt. Was er in dem Video zeigt, das er am Sonntag bei Youtube hochgeladen hat, macht ihn wütend. Er führt darin vor, wie man mit ein paar Klicks in das abtaucht, was er ein "Wurmloch in einen Softcore-Pädophilenring auf Youtube" nennt.
Wurmloch, das klingt kompliziert. Tatsächlich folgt Watson nur dem automatischen Vorschlagsmechanismus der Videoplattform, die als "Up next" weitere, auf die Interessen der Nutzer zugeschnittene Inhalte vorschlägt. Zwei Klicks braucht er, um von Videos, in denen Frauen ihre neu gekauften Bikinis vor der Kamera präsentieren, einen Vorschlag mit dem Titel "gymnastics video" zu erhalten. Auf dem Vorschaubild macht ein junges Mädchen etwas, das wie der Versuch eines Spagats aussieht.
Eigentlich wäre das Video harmlos. Vermutlich hat das Mädchen es selbst mit dem Handy aufgenommen, an einem Sommertag mit der Freundin im Garten. Aber man braucht nicht viel Fantasie, um sich vorstellen zu können, welches Bedürfnis der Vorschlagsmechanismus zu antizipieren geglaubt hat. Warum dieses Videos fast eine Million Zugriffe hatte, bevor es gelöscht wurde. Von dem Punkt, an dem Watson auf das "gymnastics video" geklickt hat, bekommt er fast nur noch kleine Mädchen vorgeschlagen. Sie spielen Twister, machen Yoga, lutschen an Speiseeis oder sitzen mit kurzen Hosen auf dem Bett. Der Algorithmus lernt schnell, was Watson, der vor dem Test noch schnell einen neuen, unbeschriebenen Account aufgesetzt hat, anscheinend sucht.
In den Kommentarspalten hinterlassen sich die Nutzer zudem gegenseitig Zeitmarkierungen, damit andere direkt zu den aus ihrer Sicht besonders lohnenden Stellen springen können. Die werden dann durch Kommentare ausgiebig beklatscht und bejubelt. Manche posten anzügliche Anspielungen in Form eines aus drei Wasserspritzern bestehenden Emoji-Bildzeichens oder einer Aubergine. Watson berichtet, er habe Beiträge gefunden, in denen Nutzer ihre Kontaktdaten austauschen und Links zu explizit kinderpornographischen Inhalten teilen.
Youtube weiß seit langem von der Nutzung solcher Videos
Am Mittwochabend meldete daraufhin Bloomberg, mehrere große Unternehmen hätten wegen Watsons Recherche ihre Werbemaßnahmen auf Youtube gestoppt, darunter Nestlé, Disney, Dr. Oetker und der "Fortnite"-Entwickler Epic Games. Laut dem Wall Street Journal will auch McDonald's seine Werbung vorübergehend von der Plattform entfernen. In Watsons Recherche ist zu sehen, dass die Werbeclips einiger dieser Unternehmen vor den Videos abgespielt werden, die er kritisiert.
Auf Anfrage der SZ verweist Youtube auf seine "klaren Richtlinien" gegen Videos und Kommentare, die Minderjährige gefährden. Diese würden "mit Nachdruck" umgesetzt, das Unternehmen investiere "stark in Technologie, Teams und Partnerschaften mit gemeinnützigen Organisationen, um dieses Problem anzugehen".
Von diesem Nachdruck war bislang wenig spürbar. Denn eigentlich müsste Youtube von diesem Problem wissen, spätestens seit der sogenannten Elsagate-Kontroverse im Jahr 2017. Damals tauchten Videos in Kanälen für Kinder auf, in denen Figuren aus Zeichentrickserien Dinge taten, die Kinder besser nicht sehen sollten - was wohl genau das war, was den Produzenten dieser Videos Freude bereitete. Besonders häufig war die Figur Elsa aus dem Animationsfilm "Frozen" Protagonistin von zunächst harmlosen Szenarien, in die plötzlich der Horror einbricht, mit Grusel und Vergewaltigung. Ungefähr zu dieser Zeit wurde auch erstmals von anzüglichen Kommentaren berichtet, die Nutzer unter die Videos von Kindern posteten.
Im November 2017 kündigte das Unternehmen daraufhin an, keine Werbung mehr vor "unangemessenen" Videos zu schalten. Das sollte Werbekunden beruhigen, die fürchteten, mit ihren Spots vor einem Video zu landen, in dem Kinder traumatisiert oder begafft wurden. Außerdem wollte Youtube "unangemessene" Kommentare künftig blocken. Einen Monat später legte Geschäftsführerin Susan Wojcicki nach: Das Unternehmen plane, im Jahr 2018 zehntausend Mitarbeiter zu diesem Zweck zu beschäftigen. Aber das Wurmloch blieb. Auch Watsons Video scheint nur eine eher oberflächliche Aufräumaktion zur Folge gehabt zu haben.
Ein paar Tage nach seinem gefilmten Selbstversuch ist offenbar der größte Teil der Nutzer, die Aufnahmen von den Accounts junger Mädchen heruntergeladen und selbst neu ins Netz gestellt haben, gelöscht worden . Unter vielen, aber längst nicht allen der entsprechenden Originalvideos sind nun außerdem die Kommentarfunktionen abgestellt. Nicht die Inhalte selbst sind ja missbräuchlich, sondern die Art, wie manche Nutzer über sie reden und per Zeitmarkierungen für ihre ausbeuterischen Zwecke filetieren. Es dauert auch ein paar Klicks länger, bis man sie findet. Aber die Videos sind noch immer da.
Youtubes Algorithmen befördern sie zuverlässig aus den hunderten Stunden von Material nach oben, die jede Minute auf der Plattform hochgeladen werden. Sie schlagen Videos vor, die dem ähneln, was der Nutzer sich gerade ansieht oder in der Vergangenheit angesehen hat. Dabei bevorzugen sie unter allen möglichen ähnlichen Inhalten diejenigen, die andere besonders häufig und im Schnitt besonders lange angeschaut haben - denn genau darum geht es ja: Die Nutzer sollen möglichst viel Zeit auf Youtube verbringen, damit möglichst viel Werbung laufen kann.
Kindesmissbrauch ist kein Fehler im System
Inhalte, mit denen Nutzer besonders häufig interagieren, deuten Algorithmen wie der von Youtube als Zeichen, dass es sich um etwas besonders Interessantes handelt. Auch wenn diese Interaktionen aus Kommentaren bestehen, mit denen sich eine Clique von Pädophilen vernetzt. Oder gerade deshalb.
Videos, die diese Szene ausbeutet, sind in der Youtube-Logik tatsächlich besonders gut funktionierende Inhalte in ihrem Segment. Sie werden häufiger kommentiert und länger angeschaut als andere Videos mit Kindern, weil sich für die sonst niemand interessiert. Also werden sie auch häufiger vorgeschlagen. Die zynische Erkenntnis lautet, dass Clips mit Kindesmissbrauch kein Fehler in den Systemen von Youtube sind. Sondern deren Funktionsweise perfekt illustrieren - den Traum, jeder könne es schaffen, dass sein Video, zu Hause im Wohnzimmer oder im Garten gedreht, aus allen anderen heraussticht und auf Computerbildschirmen auf der ganzen Welt läuft. Youtube verkauft ihn auch an Kinder und Jugendliche. Sie vor den Ergebnissen dieses Traums zu schützen, scheint weniger hoch auf der Prioritätenliste zu stehen.
Die Algorithmen des Vorschlagsmechanismus sind ein streng gehütetes Firmengeheimnis. Das Unternehmen weigert sich hartnäckig, ihre genaue Funktionsweise offenzulegen oder sie gar öffentlicher Kontrolle zu unterstellen. Wenn etwas hochkocht, wie es derzeit unter dem Hashtag #youtubewakeup geschieht, verweist Youtube auf seine Richtlinien. Dann lässt es, unterstützt von automatischen Filtern, die auch mal aus Versehen harmlose Accounts löschen, seine Armee aus "Content Moderatoren" Stunden um Stunden Bilder halbnackter Mädchen sichten. Dann tauchen andere Brandherde auf, zu denen sie geschickt werden. Und das Wurmloch bildet sich erneut.