Radikalisierung in sozialen Netzwerken:Was passiert, wenn die Filterblase platzt?

Lesezeit: 4 Min.

Filterblasen führen zu einer Fragmentierung der politischen Landschaft. (Foto: Daniele Levis Pelusi / Unsplash / Bearbeitung: SZ.de)
  • Durch Filterblasen werden Nutzer in ihrem Denken permanent bestätigt.
  • Der Trick dahinter: Je mehr Zeit die Nutzer auf Facebook verbringen, desto mehr Geld verdient der Konzern durch Anzeigen.
  • In den USA wird nun überlegt, Netzwerke gesetzlich zur Verbreitung bestimmter Inhalte zu verpflichten, um so ihr Programm zu diversifizieren.

Von Adrian Lobe

Wer ein Googlemail-Postfach besitzt und als angemeldeter Nutzer Youtube öffnet, sieht auf der Startseite des Videoportals ziemlich viel Gefälliges: Kino-Trailer, Sportsequenzen, Clips, die man bereits geschaut hat oder Themen, die einen interessieren. Unterhaltung à la carte. Google zeigt aufgrund individueller Suchanfragen Empfehlungen an, die am ehesten den Präferenzen seiner Nutzer entsprechen. Zwar lassen sich einzelne Videos aus dem Wiedergabeverlauf oder Suchanfragen aus dem Suchverlauf löschen, doch die Mechanik, mit der Youtubes Algorithmen Inhalte auf den Nutzer zuschneiden, lässt sich nicht abschalten - sie ist das zentrale Bauprinzip der datengetriebenen Werbemaschinerie. Man muss sich nicht einmal die Mühe machen, einen Clip auszuwählen - das nächste Video wird automatisch abgespielt. Der Nutzer kann sich bequem zurücklehnen.

Auch soziale Netzwerke wie Twitter oder Facebook personalisieren Inhalte. Wer auf Facebook einen fiktiven Dummy-Account kreiert - männlich, 53 Jahre alt, Wohnort München - und die Seiten von ARD, Greenpeace und dem Allgemeinen Deutschen Fahrrad-Club likt, sieht in seinem Newsfeed, wenig überraschend, Inhalte aus dem Bereich Umweltschutz. Interessant ist, dass der Newsfeed-Algorithmus Inhalte untereinander verknüpft - so wird zum Beispiel ein Beitrag der Tagesthemen über Greenpeace angezeigt. Der Nutzer sieht fortwährend Inhalte, die ihn interessieren, die er ohnehin schon irgendwie im Blick hat - und wird in seinem Denken permanent bestätigt.

Journalismus
:Facebook kann Portale in die Bedeutungslosigkeit hinunterpegeln

Immer wieder dreht Facebook an seinem Newsfeed-Algorithmus. Das bedroht die Geschäftsmodelle der vom sozialen Netzwerk abhängigen Medien.

Von Adrian Lobe

Der Netzaktivist Eli Pariser hat dafür den Begriff der Filterblase geprägt. Das ist der behavioristische Trick hinter der Like-Maschinerie: Nutzer zu manipulieren und durch Belohnungsmechanismen so zu konditionieren, dass sie möglichst lange bei der Stange bleiben. Denn: Je mehr Zeit die Nutzer auf Facebook verbringen, desto mehr Geld verdient der Konzern durch Anzeigen. Die Sorge dabei ist, dass Filterblasen zu einer Polarisierung und Fragmentierung der politischen Landschaft führen.

Gewiss, Filterblasen sind kein neues Phänomen. Wer den ultrakonservativen US-Sender Fox News anschaltet und sich den hysterischen Ergüssen des Moderators über die "caravan crisis" an der amerikanisch-mexikanischen Grenze aussetzt, muss sich über den trumpistischen Ton keine Illusionen machen. Dass den Zuschauer von MSNBC moderatere Positionen zur US-Migrationspolitik erwarten, ist auch klar. Insofern herrscht auch Transparenz über die politische Ausrichtung. Bei sozialen Netzwerken ist das anders - die Algorithmen, die Informationen strukturieren und selektieren, sind eine Black Box. Der Facebook-Nutzer weiß nicht, ob er nun als republikanischer oder demokratischer Wähler berechnet wird und seine Daten an eine Politkampagne verkauft wurden. Die Verfahren sind völlig intransparent.

Jürgen Habermas schrieb in seinem Buch "Technik und Wissenschaft als 'Ideologie'" von 1968: "Die heute herrschende Ersatzprogrammatik bezieht sich hingegen nur noch auf das Funktionieren eines Systems. Sie schaltet praktische Fragen aus, und damit die Diskussion über die Annahme von Standards, die allein der demokratischen Willensbildung zugänglich wären. Die Lösung technischer Aufgaben ist auf öffentliche Diskussionen nicht angewiesen." Auch Facebook schaltet Fragen aus, indem es Probleme wie hate speech, Hass im Netz, informatisiert und damit dem Zugriff der Öffentlichkeit entzieht. Und sich so gegen Widerspruch immunisiert.

Die Frage ist, ob eine kritische Öffentlichkeit, die ja eine Abänderlichkeit diskursiver Spielregeln impliziert, funktionieren kann, wenn im Maschinenraum privater Tech-Konzerne ein algorithmisches Agenda-Setting programmiert wird. Wie will man ein System kritisieren, das einem in fortlaufenden Rückkopplungsschleifen immer wieder das eigene Denken bestätigt?

Facebook, Google & Co.
:"Überwachungskapitalisten wissen alles über uns"

Die großen Datenkonzerne beuten ihre Nutzer aus, sagt die emeritierte Harvard-Professorin Shoshana Zuboff. Sie erklärt, warum es so schwer ist, sich dem Überwachungskapitalismus zu entziehen.

Von Mirjam Hauck

Eine kritische Öffentlichkeit setzt die Kritikfähigkeit der Meinenden voraus, die Bereitschaft, seinen eigenen Standpunkt kritisch zu hinterfragen und sich mit anderen Argumenten und Positionen auseinanderzusetzen. In den schalldichten Echokammern, die die Sozialingenieure zimmern, finden die Argumente der Gegenseite aber kein Gehör. Man kann Andersdenkende ignorieren - und stummschalten. Facebook oder Youtube sind keine Debattierklubs, sondern Werbeplattformen, in denen Öffentlichkeit als eine Art überwachungskapitalistisches Nebenprodukt anfällt. Doch genau das ist das Problem: Die "medialen" Ökosysteme prämieren Affekte, die vernunftgeleiteten Debatten abträglich sind: Aufregung, Emotionen, zuweilen auch Hass. Ein Verschwörungsvideo, das millionenfach geklickt wird, ist eben auch ein ökonomischer Erfolg. Die Konzerne verdienen also daran, dass die Axt an die demokratischen Wurzeln angelegt wird. Ein schier unauflösbarer Konflikt. Und ein solches System korrumpiert letztlich auch die Nutzer, die von solchen Metriken gesteuert werden.

Die Soziologin Zeynep Tufekci hat in der New York Times die These aufgestellt, dass Youtube "eines der mächtigsten Radikalisierungswerkzeuge des 21. Jahrhunderts" sei. Die Wissenschaftlerin hatte während des Präsidentschaftswahlkampfs 2016 in den USA beobachtet, dass das Portal ihr nach dem Abrufen von Clips über Trump-Kundgebungen Videos über weiße Rassisten und Holocaust-Leugner vorschlug und automatisch abspielte. Programmierter Extremismus. Auch bei unpolitischen Inhalten beobachtete die Soziologin einen Radikalisierungseffekt. Clips über Vegetarier führten zu Clips über Veganer. Videos über Joggen zu Ultramarathons.

Inmitten einer Revolution kann sich die Timeline wie Disneyland anfühlen

Man surft von einem Extrem ins nächste. Nur: Wie kommt man aus dieser Spirale wieder heraus? Es gab in den USA Überlegungen, ob man Tech-Plattformen wie Facebook oder Google ähnlich wie Kabelnetzbetreibern gesetzliche Verbreitungsregeln (Must-Carry-Rules) auferlegt, die sie dazu verpflichten, bestimmte Inhalte einzuspeisen und ihr "Programm" zu diversifizieren. Theoretisch könnte der Gesetzgeber Facebook dazu zwingen, seine Algorithmen so zu modifizieren, dass die Inhalte ausgewogener sind - und so die Hermetik der Filterblasen aufbrechen. Praktisch wäre dies jedoch schwer umsetzbar: Facebook müsste dann Anzeigenverluste hinnehmen - und würde womöglich dagegen klagen.

Aber: Würde es an der Debattenkultur etwas ändern, wenn der überzeugte Alt-Right-Anhänger neben Breitbart-News alibimäßig ein paar CNN-Beiträge in seinem Newsfeed eingeblendet bekommt? Oder würde dies der Wut auf die angebliche Political Correctness neue Nahrung geben? Anders gewendet: Ist die politische Kommunikation womöglich so sensibel, dass ein Platzen der Filterblasen mehr Gefahren birgt als deren Aufrechterhaltung?

Der US-Rechtswissenschaftler Frank Pasquale gibt in einer Analyse für die Rosa-Luxemburg-Stiftung namens "Der automatisierte öffentliche Raum" zu bedenken: "Das große Problem für die Befürworter von Filterblasen-Reformen ist, dass sie nicht angemessen nachweisen können, ob eine Konfrontation der Anhänger der einen Seite mit den Fakten, den Prioritäten, der Ideologie und den Werten der anderen Seite zu Verständnis oder Ablehnung, Umdenken oder Renitenz führen wird." Selbst in einer Situation der "asymmetrischen Überzeugbarkeit" würde sich letztlich nur die Macht der sozialen Gruppe oder politischen Partei konsolidieren, "die am beharrlichsten zu ihren Positionen steht", schreibt Pasquale.

Gravierender als die Polarisierung erscheinen die Derealisierungseffekte, die mit Filterblasen einhergehen. Soziologin Tufekci notierte einmal, dass sich ihr Newsfeed inmitten einer Revolution wie "Disneyland" anfühle. Während der Unruhen in Ferguson im August 2014 sah sie auf Facebook statt Nachrichten bloß Einladungen zur Ice-Bucket-Challenge, bei der sich Nutzer vor laufenden Kameras eimerweise Eiswürfel über die Köpfe gossen. Wer sich nur auf Facebook informiert, hätte von den Aufständen womöglich keine Notiz genommen. Die Abschaltung der Öffentlichkeit beginnt mit der Ausblendung der Wirklichkeit.

© SZ vom 10.12.2018 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Hass im Internet
:Der Feind in der Timeline

Frauen, die öffentlich Stellung beziehen, werden online stark angefeindet. Dieses massive Cybermobbing stellt Gesetzgeber und soziale Netzwerke auf die Probe.

Von Anna Steinbauer

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: