Soziale Netzwerke:Wie der Facebook-Filter die politische Meinung bestimmt

People pose with mobile devices in front of projection of Facebook logo in this picture illustration taken in Zenica

Schattenprofile: Mit Hilfe von Cookies erfährt Facebook in vielen Fällen, wer welche Internetseite besucht hat.

(Foto: Dado Ruvic/Reuters)

Filterblase oder Schere im Kopf? Eine Studie mit den Daten von zehn Millionen Nutzern will die Frage beantworten, wie groß der Einfluss des Facebook-Algorithmus auf die politische Meinung wirklich ist.

Von Robert Gast

Facebook kann sehr anstrengend sein. Ständig posten Bekannte Katzenvideos, protzen mit Urlaubsfotos oder teilen stolz mit, was ihr zweijähriger Sohnemann morgens beim Frühstück gebrabbelt hat. Das will in seiner Gesamtheit kaum jemand sehen, zumal die allermeisten Facebook-Freunde eher entfernte Bekannte als Vertrauenspersonen sind.

Was man sehen will, sind die Hochzeitsfotos einer alten Schulfreundin. Das Statusupdate des Studienkollegen, der sein Staatsexamen geschafft hat. Oder den Link zu einem Zeitungsartikel, der verrät, ob Yanis Varoufakis' Stinkefinger nun wirklich nur eine Fälschung von Jan Böhmermann war.

Facebook will seine Nutzer möglichst lange auf seiner Webseite halten. Daher sortieren Computerprogramme vor, was ein Nutzer in seinem "Newsfeed" gezeigt bekommt. Die Algorithmen filtern Beiträge heraus, die der Programmcode als nicht relevant einstuft. Wenn man die belanglosen Statusupdates der Bekannten aus Kindergartentagen nie anklickt, erscheinen sie irgendwann nicht mehr.

Experten streiten über schädliche Wirkung von Filtern

Mitunter filtert der Newsfeed-Algorithmus aber auch Beiträge aus dem Nachrichtenstrom, die ein Nutzer zwar nicht gut findet, die ihm aber vielleicht trotzdem gut tun würden: Zum Beispiel Links zu Zeitungsartikeln, die das eigene Weltbild infrage stellen.

Seit Jahren streiten Experten darüber, ob solche Filter dem öffentlichen Diskurs schaden. Der Internetaktivist Eli Pariser prägte 2011 den Begriff der "Filterblase". Wenn Internetnutzern Informationen vorenthalten werden, die ihrem Wertesystem zuwiderlaufen, würde das die Gräben zwischen politischen Lagern vertiefen. Am Ende drohe die Demokratie Schaden zu nehmen, wenn Algorithmen jedem nur noch das präsentieren, was er hören will.

Pariser erhielt Widerspruch für seine These. Andere Experten hielten das Ausmaß, in dem Google und Facebook das Internet für ihre Nutzer personalisieren, für gering. "Bisher ist unklar, wie stark die Auswirkungen dieser Praxis sind", sagt der Internetexperte Viktor Mayer-Schönberger von der Universität Oxford.

Nutzer klicken nicht einmal ein Zehntel an

Eine prominent vom Wissenschaftsmagazin Science veröffentlichte Studie erlaubt nun erstmals einen Blick auf die Filterblase. Sie legt nahe, dass sie möglicherweise kleiner ist, als Skeptiker bisher angenommen haben. Die Studienautoren arbeiten allerdings bei Facebook. Das erklärt den Zugriff, den das Team um den Computerwissenschaftler Eytan Bakshy auf die Daten von 10,1 Millionen amerikanischen Facebook-Nutzern hatte.

Diese haben in der zweiten Hälfte des Jahres 2014 insgesamt 226 000 Links zu politischen Artikeln auf Nachrichtenseiten wie Fox News oder der Huffington Post gepostet. Die Forscher beurteilten danach, ob ein Artikel, den ein Facebook-Nutzer mit seinen Freunden teilte, politisch eher eine liberale oder konservative Ausrichtung hatte. Anschließend schauten die Studienautoren, wie viele dieser Artikel auch tatsächlich im Newsfeed der Freunde auftauchten.

Im Durchschnitt sah ein Anhänger der demokratischen Partei nur acht Prozent jener Beiträge nicht, deren Inhalt seiner politischen Überzeugung widersprach. Bei Republikanern filterte der Algorithmus durchschnittlich fünf Prozent der für sie kontroversen Links aus dem Newsfeed. Damit sortiere der Algorithmus deutlich weniger Inhalte aus als die selektive Wahrnehmung der Nutzer, argumentieren die Forscher. Denn insgesamt klickten die unfreiwilligen Probanden weniger als ein Zehntel der geposteten politischen Inhalte überhaupt an.

Auch unter Demokraten gibt es unterschiedliche Meinungen

"Die Studie ist schon spannend, hat aber einige methodische Probleme", sagt der Algorithmusexperte Jürgen Geuter von der Universität Oldenburg. So finde er die Auswahl der Personengruppe fragwürdig. Facebook hat nur Personen berücksichtigt, die ihre politische Einstellung in ihrem Profil vermerkt haben. Das sei aber ein sehr grobes Raster. Denn es gebe ja auch zwischen zwei Menschen, die sich beide als Demokraten bezeichnen, beträchtliche Meinungsunterschiede.

Dieses Spektrum werde vom Schema ignoriert, das die Facebook-Forscher benutzten, um die politische Ausrichtung von verlinkten Zeitungsartikeln zu bestimmen. Auch entspreche nicht jeder Artikel, den ein Nutzer auf Facebook postet, seiner politischen Überzeugung - manchmal will man seinen Freunden ja auch einfach zeigen, was da wieder Dummes im Internet zu finden ist.

Aber die Kernthese des Artikels hält Geuter für schlüssig. "Filterblasen sind nicht allein die Schuld von Algorithmen", sagt er. Die Zeitung, die man abonniere, sei ja in manchen Fällen auch eine Entscheidung für ein bestimmtes Weltbild. Zumal Psychologen in Experimenten immer wieder bestätigt haben, dass der Mensch dazu neigt, Standpunkte, die seiner Meinung widersprechen, gerne auch mal auszublenden.

"Die Studie zeigt, dass eine Filterblase kaum existiert"

Generell unterstütze das Ergebnis die Argumentation von Facebook, stets im Interesse der Nutzer zu handeln, sagt Geuter. Tatsächlich fühlt man sich bei der Firma bestätigt: "Die Studie zeigt, dass eine Filterblase kaum existiert", teilt Facebook auf Anfrage mit. Das soziale Netzwerk lebt eben davon, dass viele seiner Nutzer es als objektives Abbild der Wirklichkeit betrachten.

Manche davon dürften allerdings überrascht sein, dass der Facebook-Algorithmus überhaupt politische Inhalte sortiert - wenn auch auf einem niedrigen Niveau. Wie empört die Netzöffentlichkeit sein kann, wenn mit ihrem Newsfeed herumgespielt wird, zeigte eine Studie aus dem vergangenen Sommer: Damals wurde bekannt, dass Facebook Newsfeed-Einträge von einer halben Million Nutzern zu Forschungszwecken manipuliert hatte.

Republikaner-Links für Demokraten?

Fest steht, dass der Internetkonzern laufend die Filter verändert, nach denen Newsfeed-Beiträge sortiert werden. Beispielsweise gibt Facebook seit Kurzem Beiträgen von engen Freunden mehr Gewicht im Nachrichtenstrom.

Oxford-Forscher Viktor Mayer-Schönberger sagt, dass Filter in Zukunft sicher intelligenter werden. Es gebe ein "Bedürfnis, der Filterblase zu entkommen", sagt er. Es sei also nur eine Frage der Zeit, bis Algorithmen Standard werden, die Nutzer überraschen wollen - zum Beispiel mit ungewohnten Meinungen.

Im Falle von Facebook könnte das etwa so aussehen, dass Republikaner bevorzugt Beiträge von Demokraten gezeigt bekommen - und umgekehrt. Allzu populär wäre das wohl nicht, aber vielleicht hilfreich dabei, Diskussionen in Gang zu bringen? Derzeit plant Facebook solch eine Funktion jedenfalls nicht, teilt das Unternehmen auf Anfrage mit. Das Ziel sei weiterhin, "den Menschen jene Inhalte zu zeigen, die sie am interessantesten und relevantesten finden". Das werden wohl auch in Zukunft eher Hochzeitsfotos sein.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: