Radikalisierung in sozialen Netzwerken Was passiert, wenn die Filterblase platzt?

Filterblasen führen zu einer Fragmentierung der politischen Landschaft.

(Foto: Daniele Levis Pelusi / Unsplash / Bearbeitung: SZ.de)
  • Durch Filterblasen werden Nutzer in ihrem Denken permanent bestätigt.
  • Der Trick dahinter: Je mehr Zeit die Nutzer auf Facebook verbringen, desto mehr Geld verdient der Konzern durch Anzeigen.
  • In den USA wird nun überlegt, Netzwerke gesetzlich zur Verbreitung bestimmter Inhalte zu verpflichten, um so ihr Programm zu diversifizieren.
Von Adrian Lobe

Wer ein Googlemail-Postfach besitzt und als angemeldeter Nutzer Youtube öffnet, sieht auf der Startseite des Videoportals ziemlich viel Gefälliges: Kino-Trailer, Sportsequenzen, Clips, die man bereits geschaut hat oder Themen, die einen interessieren. Unterhaltung à la carte. Google zeigt aufgrund individueller Suchanfragen Empfehlungen an, die am ehesten den Präferenzen seiner Nutzer entsprechen. Zwar lassen sich einzelne Videos aus dem Wiedergabeverlauf oder Suchanfragen aus dem Suchverlauf löschen, doch die Mechanik, mit der Youtubes Algorithmen Inhalte auf den Nutzer zuschneiden, lässt sich nicht abschalten - sie ist das zentrale Bauprinzip der datengetriebenen Werbemaschinerie. Man muss sich nicht einmal die Mühe machen, einen Clip auszuwählen - das nächste Video wird automatisch abgespielt. Der Nutzer kann sich bequem zurücklehnen.

Auch soziale Netzwerke wie Twitter oder Facebook personalisieren Inhalte. Wer auf Facebook einen fiktiven Dummy-Account kreiert - männlich, 53 Jahre alt, Wohnort München - und die Seiten von ARD, Greenpeace und dem Allgemeinen Deutschen Fahrrad-Club likt, sieht in seinem Newsfeed, wenig überraschend, Inhalte aus dem Bereich Umweltschutz. Interessant ist, dass der Newsfeed-Algorithmus Inhalte untereinander verknüpft - so wird zum Beispiel ein Beitrag der Tagesthemen über Greenpeace angezeigt. Der Nutzer sieht fortwährend Inhalte, die ihn interessieren, die er ohnehin schon irgendwie im Blick hat - und wird in seinem Denken permanent bestätigt.

Journalismus Facebook kann Portale in die Bedeutungslosigkeit hinunterpegeln
Journalismus

Facebook kann Portale in die Bedeutungslosigkeit hinunterpegeln

Immer wieder dreht Facebook an seinem Newsfeed-Algorithmus. Das bedroht die Geschäftsmodelle der vom sozialen Netzwerk abhängigen Medien.   Von Adrian Lobe

Der Netzaktivist Eli Pariser hat dafür den Begriff der Filterblase geprägt. Das ist der behavioristische Trick hinter der Like-Maschinerie: Nutzer zu manipulieren und durch Belohnungsmechanismen so zu konditionieren, dass sie möglichst lange bei der Stange bleiben. Denn: Je mehr Zeit die Nutzer auf Facebook verbringen, desto mehr Geld verdient der Konzern durch Anzeigen. Die Sorge dabei ist, dass Filterblasen zu einer Polarisierung und Fragmentierung der politischen Landschaft führen.

Gewiss, Filterblasen sind kein neues Phänomen. Wer den ultrakonservativen US-Sender Fox News anschaltet und sich den hysterischen Ergüssen des Moderators über die "caravan crisis" an der amerikanisch-mexikanischen Grenze aussetzt, muss sich über den trumpistischen Ton keine Illusionen machen. Dass den Zuschauer von MSNBC moderatere Positionen zur US-Migrationspolitik erwarten, ist auch klar. Insofern herrscht auch Transparenz über die politische Ausrichtung. Bei sozialen Netzwerken ist das anders - die Algorithmen, die Informationen strukturieren und selektieren, sind eine Black Box. Der Facebook-Nutzer weiß nicht, ob er nun als republikanischer oder demokratischer Wähler berechnet wird und seine Daten an eine Politkampagne verkauft wurden. Die Verfahren sind völlig intransparent.

Jürgen Habermas schrieb in seinem Buch "Technik und Wissenschaft als 'Ideologie'" von 1968: "Die heute herrschende Ersatzprogrammatik bezieht sich hingegen nur noch auf das Funktionieren eines Systems. Sie schaltet praktische Fragen aus, und damit die Diskussion über die Annahme von Standards, die allein der demokratischen Willensbildung zugänglich wären. Die Lösung technischer Aufgaben ist auf öffentliche Diskussionen nicht angewiesen." Auch Facebook schaltet Fragen aus, indem es Probleme wie hate speech, Hass im Netz, informatisiert und damit dem Zugriff der Öffentlichkeit entzieht. Und sich so gegen Widerspruch immunisiert.

Die Frage ist, ob eine kritische Öffentlichkeit, die ja eine Abänderlichkeit diskursiver Spielregeln impliziert, funktionieren kann, wenn im Maschinenraum privater Tech-Konzerne ein algorithmisches Agenda-Setting programmiert wird. Wie will man ein System kritisieren, das einem in fortlaufenden Rückkopplungsschleifen immer wieder das eigene Denken bestätigt?

Technologie "Überwachungskapitalisten wissen alles über uns"

Facebook, Google & Co.

"Überwachungskapitalisten wissen alles über uns"

Die großen Datenkonzerne beuten ihre Nutzer aus, sagt die emeritierte Harvard-Professorin Shoshana Zuboff. Sie erklärt, warum es so schwer ist, sich dem Überwachungskapitalismus zu entziehen.   Von Mirjam Hauck