Erkenntnistheorie:Der Mythos von der Filterblase

Klumpen von Seifenblasen PUBLICATIONxINxGERxSUIxAUTxONLY Aeriform 10270038

Ist die vielzitierte Filterblase in sozialen Medien tatsächlich so entscheidend für die politische Polarisierung der Gesellschaft?

(Foto: imago/Ikon Images)

Nach dem Sieg von Donald Trump richtet sich die Wut gegen die "Filterblase" in sozialen Netzwerken. Dabei missverstehen viele die Natur dieses Phänomens.

Von Christoph Behrens

Der Sieg Donald Trumps bei der US-Präsidentschaftswahl löst Staunen aus, mitunter auch Entsetzen. Nicht so sehr über die politischen Fehlentwicklungen der vergangenen Jahre oder darüber, dass die Demokraten ihre Kernklientel - die einfachen Leute - aus den Augen verloren haben. Lauter noch ist der Ärger über Facebook und andere soziale Netzwerke.

Dort bekomme jeder Nutzer etwas anderes zu sehen, ausgewählt und vorsortiert von undurchsichtigen Algorithmen, so der Vorwurf. Jeder lebe nur noch in seiner eigenen Filterblase. "Soziale Medien verschärfen die politische Spaltung", urteilte USA Today. Nach dem Wahltag sprach das New York-Magazin von der "Filterblasenhaftigkeit" von Trumps Sieg, im Kanon mit anderen Medien. In diesen "radikalen Filterbubbles werden gegenteilige Informationen entweder ausgeblendet oder bekämpft", heißt es beispielsweise auch in der deutschen Fernsehsendung "Galileo".

Politik spielt in sozialen Netzwerken eine untergeordnete Rolle

Tatsächlich gibt es kaum Erkenntnisse darüber, wie stark sich die Filterblase konkret auf die Meinungsvielfalt auswirkt. Vorhandene empirische Studien lassen kaum auf eine extreme politische Polarisierung schließen, wie sie weithin angenommen wird. Beispielsweise fand der Statistiker Seth Flaxman von der Universität Oxford in 50 000 anonym ausgewerteten Browser-Historien von US-Bürgern aus dem Jahr 2016 nur einen sehr mäßigen Einfluss von Algorithmen auf die Meinungsvielfalt. Entgegen der populären Vorstellung, dass viele nur noch über soziale Netzwerke Nachrichten konsumieren, surfen laut der Untersuchung typische Internetnutzer meist direkt ihre bevorzugten Nachrichtenseiten an.

Wer zusätzlich auf sozialen Netzwerken aktiv ist, hat laut Flaxman sogar eine höhere Chance, mit Meinungen von der anderen Seite des politischen Spektrums in Berührung zu kommen. Politik spiele in sozialen Netzwerken zudem eine untergeordnete Rolle, nur etwa jeder 300. Klick auf Facebook führe zu einem substanziellen nachrichtlichen Artikel. Es dominieren Links zu Fotos und Videos, Sport und Unterhaltung. Eine Studie der University of London kam zum Ergebnis, dass sich auf Twitter-Profilen in Deutschland und Italien häufig überhaupt keine politische Richtung ausbildet. Die 180 000 untersuchten Nutzer kamen meist nur geringfügig mit politischen Inhalten in Kontakt.

Entscheidend ist der Bekanntenkreis, nicht Algorithmen

Anhand von 3,8 Milliarden geteilten Links auf Facebook konnten Datenwissenschaftler im Fachblatt Science nachweisen, wie stark Algorithmen die Meinungsvielfalt konkret beeinflussen. Demnach sorgen Facebooks Sortierverfahren dafür, dass ein linksliberal eingestellter Nutzer im Schnitt acht Prozent weniger Inhalte von der anderen politischen Seite angezeigt bekommt als ohne den Filter. Das heißt, weniger als jeder zehnte Artikel, der tendenziell nicht zum eigenen politischen Weltbild passt, wird ausgeblendet. Bei Konservativen ist es weniger als jeder 20. Beitrag. Demnach ist der Stream von Konservativen sogar bunter als der von Liberalen. Amerikanische Konservative freunden sich laut der Science-Studie auf Facebook im Schnitt auch mit mehr Personen aus dem linken politischen Spektrum an als umgekehrt.

Die wissenschaftlichen Arbeiten haben sicherlich Schwachstellen, beispielsweise ist der US-Präsidentschaftswahlkampf 2016 noch nicht in den Daten erfasst. Dennoch zeigen die Ergebnisse, dass Netzplattformen nicht automatisch immer abgeschotteter und polarisierter werden. Auf der englischen Wikipedia-Seite sind laut einer Analyse der Harvard Business School beispielsweise Artikel, die sich mit US-amerikanischer Politik beschäftigen, heute unvoreingenommener als noch vor einigen Jahren. Es scheint also nach wie vor große Inseln der Neutralität im Netz zu geben. Eine zweite Erkenntnis: Viel stärker als Filter-Algorithmen wirkt sich auf die dargebotene Vielfalt in sozialen Netzwerken wohl aus, mit wem man vernetzt ist und was derjenige teilt. Der Bekanntenkreis war allerdings auch schon im analogen Zeitalter ein äußerst wichtiger Faktor zur Meinungsbildung.

Die Frage lautet daher, ob die Filterblase in sozialen Netzwerken tatsächlich etwas Neues darstellt. In dem Aufsatz "Wie es ist, eine Fledermaus zu sein" aus dem Jahr 1974 betont der amerikanische Philosoph Thomas Nagel den "subjektiven Charakter von Erfahrung". Um herauszufinden, wie sich eine Fledermaus fühlt, könne man zwar mit den Armen schlagen, sich Insekten in den Mund stopfen oder nachts kopfüber in einer Höhle baumeln. Was man dabei herausfindet, ist allerdings nur, wie es sich anfühlt, eine Fledermaus zu imitieren.

Die allererste Filterblase ist der menschliche Verstand

"Das aber ist nicht die Frage", schreibt Nagel. "Ich will wissen, wie es für die Fledermaus ist, eine Fledermaus zu sein." Das wisse aber nur die Fledermaus. Der menschliche Verstand stoße bei dieser Aufgabe an eine unüberwindbare Grenze, und nicht nur dort. Die gleiche Beschränkung gelte auch in weniger exotischen Fällen, behauptet Nagel, zum Beispiel gegenüber anderen Menschen. Wie ist es für einen Demokraten, ein Demokrat zu sein? Wie fühlt sich ein Republikaner? Tja.

Man könnte es so interpretieren: Die allererste Filterblase ist der menschliche Verstand. Erfahrungen sind radikal verschieden, wie sie sich für jemanden anderen anfühlen, können wir nicht wissen. Hinzu kommen die völlig unterschiedlichen Perspektiven auf die Welt, die der Philosoph Martin Heidegger mit dem Begriff der "Geworfenheit" umschreibt. Jeder wird eben unter anderen Umständen geboren, an einem anderen Ort, mit anderen Eltern, anderer Sprache. Auf soziale Netzwerke bezogen heißt das, dass wir alle verschiedene Dinge dort sehen, weil wir alle verschiedene Menschen sind, von unterschiedlichen Ländern aus, unterschiedlich erzogen, mit verschiedenen Vorlieben auf die Welt blicken.

"Kein technisches, sondern ein anthropologisches Problem"

Demnach ist die Filterblase zunächst etwas Natürliches, ein Abbild der Vielfalt, und kein Problem, das sich lösen lässt. Es spricht einiges dafür, dass das Phänomen früher sogar stärker war als heute. Ein deutscher Soldat, der im Ersten Weltkrieg gegen die Franzosen kämpfte, hatte keine Möglichkeit, das ihm vermittelte Weltbild von Freund und Feind infrage zu stellen - das Erste, was er vom Gegner sah, war dessen Bajonett. Nicht viel Zeit für Austausch, das galt nicht nur für den Fußsoldaten.

Auch die Generäle igelten sich in ihren wirklichkeitsfremden Plänen ein und brüteten noch über Kesselschlachten, als der Krieg längst verloren war - die Militärs lebten in ihrer eigenen Filterblase, bis sie die Realität einholte. Ähnliches wiederholte sich dann im Zweiten Weltkrieg. Die Geschichte ist voll von Fehlentscheidungen, die kleine Gruppen ähnlich denkender Menschen getroffen haben. Die Erfahrungen aus bewaffneten Konflikten führten im 20. Jahrhundert wesentlich zur Entstehung einer Theorie des Gruppendenkens, das sich von der Realität lösen kann - lange vor dem Internet. Im Alltag ist das Phänomen in abgeschwächter Form als selektive Informationssuche bekannt: Man sucht bevorzugt Informationen, die mit dem eigenen Weltbild übereinstimmen. "Facebooks vielgescholtene Algorithmen sind nur die Automatisierung und Verstetigung eines menschlichen Impulses", hat die Neue Zürcher Zeitung dazu geschrieben. Die Filterblase sei "kein technisches, sondern ein anthropologisches Problem".

Warum ist es trotzdem so ein Schock, wenn das Wall Street Journal einen "Blue Feed" (Facebook-Stream eines Demokraten) einem "Red Feed" eines Republikaners gegenüberstellt? Heller Wahnsinn, die sehen ja unterschiedliche Sachen! Vermutlich hängt die Aufregung damit zusammen, dass Medien wie Facebook diese Perspektiven in ihrer Radikalität nun so brutal sichtbar machen, während man sie früher nur vermutete. Am Stammtisch wurde und wird nach wie vor Unsinn geschwätzt, nur bekommt das halt kaum einer mit.

Die Existenz unterschiedlicher Netzrealitäten gilt als Problem

"Das Problem mit der Metapher der Filterblase ist, dass angenommen wird, Menschen seien perfekt von anderen Perspektiven abgeschottet", schreibt der Kommunikationsforscher Kelly Garrett von der Ohio State University in einem Kommentar. Dabei bekämen Einzelne im Netz fast immer Informationen zu sehen, die ihren eigenen politischen Einstellungen zuwiderlaufen.

Man könnte also auch behaupten, dass soziale Medien erstmals so etwas wie ein Guckloch in den einzelnen Blasen aufreißen - also einen winzigen Türspion, der die Chance bietet, seinen eigenen digitalen Stammtisch zu verlassen und so Vorurteile über die vermeintlich so fremde Welt zurechtzurücken. Die sozialen Medien ermöglichen es, unbekannte Perspektiven nachzubilden - vor allem von Milieus, die den klassischen Medien sonst verschlossen bleiben. Und so zu verstehen, welche Probleme etwa einen weißen Fabrikarbeiter aus Detroit beschäftigen. Oder einen chinesischen Parteifunktionär. Oder einen AfD-Anhänger aus Brandenburg.

Anstatt dies zu erkennen, wird die Existenz unterschiedlicher Netzrealitäten problematisiert. Paradoxerweise üben vor allem politisch eher linksliberal eingestellte Autoren Kritik an sozialen Netzwerken, obwohl sie sonst gerne die Vielfalt der Meinungen feiern. Doch was wäre die Alternative zur Filterblase? Ein einziger Stream auf Facebook, eine genormte Meinung zu Migration, Gender, AfD? Wer das will, stärkt genau jene Politikverdrossenheit und Elitenfeindlichkeit, die den Aufstieg eines Trump oder einer Le Pen erst ermöglicht haben.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: