Youtube:Keine Chance gegen den Algorithmus

Lesezeit: 3 Min.

Magst du nicht? Uns doch egal! Mitspracherecht haben Nutzer bei Youtube nicht wirklich. (Foto: -/AFP)

Daumen runter, mag ich nicht: Theoretisch sollte man bei Youtube mit beeinflussen können, welche Videos man angezeigt bekommt. Doch offenbar misstraut die Plattform ihren Nutzern.

Von Simon Hurtz, Berlin

Mehr als zwei Milliarden Menschen melden sich regelmäßig mit ihrem Google-Konto bei Youtube an, schauen dort mehr als eine Milliarde Stunden Videos und geben dabei mehr als 80 Milliarden Signale, wofür sie sich interessieren könnten. Das geschieht nicht in einem Jahr, sondern an einem einzigen Tag. Anders ausgedrückt: Youtube ist eine riesige Plattform, auf der ein Viertel der Weltbevölkerung einen gewaltigen Datenberg hinterlässt.

Keine Aktion bleibt unbeobachtet, jedes Klicken, Tippen und Wischen wird analysiert: Wer betrachtet welchen Inhalt wie lange? Wo scrollt man schnell weiter, wann bleibt man hängen? Viele Menschen kümmern sich nicht darum, mit welchen Informationen sie Youtubes Algorithmen füttern. Sie wollen Videos sehen, die sie zum Lachen oder Nachdenken bringen, möchten Matheformeln erklärt bekommen oder lernen, wie man Pizza backt. Das scheint recht gut zu klappen, sonst wäre Youtube nicht die am zweithäufigsten besuchte Webseite der Welt.

Manchmal hilft aber der größte Datenberg nichts, die Vorschläge sind trotzdem Murks. In solchen Fällen bietet Youtube eine Reihe von Werkzeugen an, um zu signalisieren: Das interessiert mich nicht. Man kann Videos mit dem gesenkten Daumen abstrafen, empfohlene Playlists ausblenden oder alle Inhalte eines bestimmten Kanals aus den persönlichen Empfehlungen verbannen. Doch die scheinbare Kontrolle hat einen Haken: Sie ändert offenbar nur wenig. Youtube scheint seinen Nutzerinnen und Nutzern nicht zuzutrauen, dass sie wissen, was sie wollen.

SZ PlusMeinungImmobilien
:Die neue Grundsteuer ist ein Desaster mit Ansage

Kommentar von Stephan Radomsky

Zu diesem Ergebnis kommt eine Studie der gemeinnützigen Mozilla-Stiftung, die der SZ vor Veröffentlichung vorlag. "Viele Menschen haben das Gefühl, dass ihr Feedback gar keinen Einfluss auf die Videos hat, die sie vorgesetzt bekommen", sagt Mozilla-Forscherin Becca Ricks, die an der Untersuchung mitgearbeitet hat. "Youtube achtet hauptsächlich darauf, mit welchen Inhalten sie am häufigsten interagieren. Wenn sie Videos bewusst ausblenden, scheint das weniger wichtig zu sein."

Zwischen Dezember 2021 und Juni 2022 teilten rund 23 000 Menschen über eine Browser-Erweiterung freiwillig Daten mit Mozilla. Fast 570 Millionen Video-Empfehlungen konnten Ricks und ihr Kollege Jesse McCrosky auswerten. Zudem füllten gut 2700 Menschen Fragebögen aus, in denen sie beschreiben, wie sie versuchen, Youtubes Algorithmen beizubringen, wofür sie sich interessieren und was sie nicht mehr sehen möchten. Die Ergebnisse der Untersuchung sind nicht repräsentativ. Mozilla sammelte keine demografischen Daten und weiß dementsprechend nichts über die Teilnehmenden.

Trotzdem ergibt die Studie ein aufschlussreiches Stimmungsbild. Die quantitative Auswertung und die qualitative Befragung zeigen zwei Dinge. Zum einen unterscheiden sich die Videos, die Menschen manchmal anschauen, von den Inhalten, die sie empfohlen bekommen möchten. "Ich vermied es, auf ein Video zu klicken, das ich gern angeschaut hätte, weil ich befürchtete, danach Empfehlungen zu bekommen, die politisch extrem sind", beschreibt eine Person. "Ich mache bewusst einen Bogen um Inhalte, die mich als eine Art 'Guilty Pleasure' gereizt hätten, um solche Inhalte nicht auf der Startseite empfohlen zu bekommen", sagt eine andere.

Die Nutzer passen ihr Verhalten an, um dem Algorithmus keine falschen Signale zu senden

Diese Nutzerinnen und Nutzer sind sich also bewusst, dass sie mit allem, was sie tun, Youtubes Empfehlungssysteme trainieren. Um den Algorithmen keine irreführenden Signale zu senden, passen sie ihr Verhalten an. Manche loggen sich aus ihrem Konto aus, bevor sie bestimmte Videos anschauen. Andere öffnen Inkognito-Fenster im Browser, legen Zweit-Accounts an oder nutzen technische Hilfsmittel wie Browser-Erweiterungen und VPNs.

Zu diesen Methoden greifen sie, weil sie Youtubes Bordmittel entweder nicht kennen oder ihnen misstrauen. Das ist der zweite Lerneffekt aus Mozillas Studie: Die Mehrheit der Teilnehmenden hat den Eindruck, dass sie den Algorithmen weitgehend hilflos ausgeliefert sind. "Manchmal habe ich Dinge als irreführend oder als Spam gemeldet, und am nächsten Tag wurden sie mir schon wieder empfohlen", erzählt eine Person. "Es fühlt sich fast so an, als werde der Bullshit-Berg immer höher, je mehr negatives Feedback ich darauf gebe."

Aus den Ergebnissen leiten Ricks und McCrosky mehrere Schlussfolgerungen ab. "Menschen sollten mehr Mitspracherecht haben, was sie auf Youtube sehen", sagt Mozilla-Forscherin Ricks. "Wenn diese Werkzeuge nicht so funktionieren, wie die Leute es erwarten, verlieren sie das Vertrauen in die Plattform." Von außen sei es schwer zu beurteilen, ob und wie Youtube die Rückmeldungen der Nutzerinnen und Nutzer in die Empfehlungen einfließen lasse. "Ich würde gern besser verstehen, wie sie die Signale gewichten, aber das ist nicht besonders transparent", sagt McCrosky.

In dieser Hinsicht gleicht Youtube den meisten großen Plattformen. Auch Facebook, Instagram oder Tiktok geben Nutzerinnen und Nutzer ein paar Knöpfe und Menüs an die Hand, mit denen sie beeinflussen können, welche Inhalte sie vorgeschlagen bekommen. Was genau das Feedback bewirkt, bleibt aber unklar. Tech-Konzerne lassen sich ungern in die Karten schauen. Im Zweifel vertrauen sie lieber ihren Algorithmen als den Menschen, die ihre Produkte nutzen.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusMeinungImmobilien
:Die neue Grundsteuer ist ein Desaster mit Ansage

Kommentar von Stephan Radomsky

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: