Algorithmen:"Verschwörungstheorien haben seit Jahren einen Platz auf Youtube"

Lesezeit: 3 min

Es gibt auch den anderen Teil von Youtube: Dort werden Verschwörungstheorien und Hass verbreitet. (Foto: imago/xim.gs)

Guillaume Chaslot hat für Youtube Algorithmen entwickelt, die Nutzern Videos empfehlen. Was ihm schnell auffiel: Das System bevorzugt polarisierende Inhalte.

Interview von Hakan Tanriverdi

Guillaume Chaslot hat drei Jahre lang für Youtube gearbeitet und war zeitweise Mitglied eines Teams, das für die Algorithmen verantwortlich war, mithilfe derer Youtube neue Videos empfiehlt. 2013 wurde der Informatiker gefeuert - laut Google, Youtubes Mutterkonzern, aus "Leistungsgründen". Chaslot sagt dagegen, es sei um seine Bemühungen um Diversität in den Trefferlisten gegangen. Mittlerweile betreibt der Franzose die Webseite "Algotransparency", was sich mit "Algorithmen-Transparenz" übersetzen lässt, und hat seine eigene Firma. Er hat ein Programm geschrieben, das auf Youtube dort gezielt nach den meistempfohlenen Videos sucht ( hier finden Sie die genaue Beschreibung).

Auf seiner Webseite hat Chaslot seine Arbeit an Beispielen verdeutlicht. Zum Beispiel ist zu sehen, welche Videos Menschen angezeigt bekommen, die wissen wollen, ob die Erde rund ist oder eine Scheibe. Was die Nutzer am 23. September 2017, also kurz vor der Bundestagswahl zu sehen bekamen, zeigt Chaslot hier.

SZ: Was genau war Ihre Aufgabe im Algorithmen-Team von Youtube?

Guillaume Chaslot: Wir haben uns angesehen, welche Videos die Nutzer sich ansehen. Also alle Videos, die ein Nutzer je angeschaut hat. Der Algorithmus hat dann in Betracht gezogen, welche Videos von Nutzern angesehen wurden, die ebenfalls diese Videos gesehen haben.

Das Prinzip "Wer dieses Buch kaufte, interessierte sich auch für dieses Buch".

Richtig. Unser Ziel ist es gewesen, Videos zu empfehlen, die Nutzer so lange wie möglich auf der Seite zu halten.

Warum?

Der Grundgedanke war: Je länger der Nutzer bei uns auf Youtube ist, desto besser ist das für alle Beteiligten. Für die Werbetreibenden ist es gut, weil sie mehr Werbung zeigen können. Für die Nutzer ist es gut, weil sie Videos sehen, die ihnen gefallen. Und für die Menschen, die Videos hochladen, ist es gut, weil deren Publikum sich mehr für die Inhalte interessiert. Zumindest war das die Denkweise von Youtube.

Das klingt verständlich. Wo ist das Problem?

Ja, wenn es so einfach wäre. Tatsächlich klappt das in vielen Fällen sehr gut. Zum Beispiel, wenn es um Musikvideos geht. Aber es gibt eben auch den anderen Teil von Youtube: Dort werden Verschwörungstheorien und Hass verbreitet.

Mittlerweile arbeiten Sie nicht mehr bei Youtube. Hat sich seitdem etwas verändert?

Ich formuliere es mal so: Bereits zu meiner Zeit habe ich innerhalb von Youtube auf das Problem aufmerksam gemacht. Aber keiner meine Vorschläge wurde ernst genommen. Sei es, weil es gegen das Geschäftsmodell verstieß, oder weil es zu internen Machtkämpfen führte.

Was haben Sie denn empfohlen?

Wir müssen uns erst einmal klarmachen, worauf all die Algorithmen abzielen, welches Verhalten sie belohnen. Zur Zeit ist das die Dauer der Videos. Inhalte, die falsch sind, haben ebenso gute Chancen, ein großes Publikum zu erreichen wie richtige Inhalte. Es ist aber einfacher, Lügen zu verbreiten. Youtube könnte zum Beispiel solche Videos weiterhin online lassen, aber aufhören, sie zu bewerben. Das wäre zumindest ein erster Schritt.

Auf Ihrer Webseite Algotransparency listen Sie, je nach Themenbereichen, besonders viel empfohlene Videos auf.

Was mir als Erstes aufgefallen ist: Insbesondere polarisierende Inhalte werden begünstigt. Person A demütigt Person B. Person C kämpft mit Person D.

Warum passiert das?

Ich erkläre es mir so: Menschen, die einen Konflikt erkennen, verfolgen ihn gebannt und aufmerksam. Das kennt man, wenn man auf der Straße unterwegs ist und zwei Leute beginnen, sich zu prügeln. Die Umstehenden greifen ein, nehmen sich in Acht, manche fliehen auch. Aber die meisten versuchen, das Geschehen im Blick zu behalten.

Auf Youtube ist das ähnlich. Die Leute reagieren. Zumindest passiv, indem sie sich die Videos anschauen. Der Algorithmus belohnt das.

Das geht so weit, dass im Fall des Amoklaufs an der Highschool in Parkland ein solches Video mit verschwörungstheoretischen Inhalten im Trending-Bereich landete.

Dort sehen dann sehr viele Leute ein Video, in dem Schüler bezichtigt werden, nur Schauspieler zu sein und nicht Opfer eines Amoklaufs.

Und es ist nicht das erste Mal. Ich habe ein Programm geschrieben, dass Tausende Videos zu Parkland gesammelt und analysiert hat. Nach dem Attentat von Las Vegas gab es deutlich mehr Videos mit solchen Inhalten. Verschwörungstheorien haben seit Jahren einen Platz auf Youtube.

Genaue Informationen, welche Daten für den Messenger-Dienst genutzt und gespeichert werden, finden Sie in der Datenschutzerklärung.

© SZ.de - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Soziale Medien
:Youtube schottet rechte Nutzer von anderen Meinungen ab

Kommunikationswissenschaftler haben untersucht, nach welchen Kriterien Youtube neue Inhalte vorschlägt. AfD-Anhänger werden dabei in ihrer Weltsicht bestätigt.

Von Hakan Tanriverdi

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: