bedeckt München 26°

Facebook:Was Nutzer, Medien und Facebook selbst tun können

Filter sind notwendig: Die Menge der verfügbaren und potenziell relevanten Informationen wächst stetig, und niemand kann das ganze Internet oder auch nur das halbe Facebook lesen. Algorithmen können helfen, eine Vorauswahl zu treffen. Ob daraus gefährliche Filterblasen werden, liegt in den Händen mehrerer gesellschaftlicher Gruppen: Nutzern, Medien und nicht zuletzt Facebook selbst.

Was Nutzer tun können: Fürchtet euch nicht

Menschen fürchten sich vor Dingen, die ihnen fremd sind. Nur wenige Menschen verstehen etwas von Algorithmen, dementsprechend lösen diese bei vielen Besorgnis aus. Dafür gibt es eigentlich keinen Grund. Algorithmen sind nur aneinandergereihte Handlungsanweisungen an ein Computerprogramm. Sie denken nicht selbst, entwickeln kein Eigenleben und spiegeln höchstens Vorurteile und Weltanschauung ihrer menschlichen Schöpfer wider.

Statt Angst vor der Macht des ominösen Facebook-Algorithmus zu haben, sollten Nutzer versuchen, dessen Funktionsweise zu verstehen. Leider verrät Facebook keine Details, dennoch kann man durch bewusstes Liken und Interagieren mit bestimmten Inhalten seinen Newsfeed gewissermaßen trainieren. Jeder Klick ist für Facebook ein Signal für Relevanz und erhöht die Chance, in Zukunft ähnliche Posts und Links angezeigt zu bekommen.

Was Medien tun können: Blasen platzen lassen

Das Naheliegende: Medien können Leser kritisch und fundiert über Algorithmen aufklären, ohne Panik zu verbreiten. Noch wichtiger: Sie sollten darauf achten, sich nicht selbst in Filterblasen zu verstricken. Digital, aber auch und vor allem im analogen Berufsleben. Viele Journalisten leben in Großstädten und sind bestens darüber informiert, wie Akademiker in Schwabing, Kreuzberg und auf der Hamburger Schanze denken - mit den Menschen auf dem Land kommen die meisten eher selten in Kontakt.

Der amerikanische Datenjournalist Nate Silver nennt das die "Liberal Media Bubble". Sie führte in den USA dazu, dass Journalisten Donald Trump keine Chancen einräumten und vom Ergebnis der Präsidentschaftswahl schockiert waren. Je mehr Lokal- und Regionalzeitungen sterben, desto drastischer wird dieser Effekt. In Deutschland ist es noch nicht so weit, aber die Entwicklung geht in dieselbe Richtung. München, Berlin und Hamburg sind großartige Städte, aber ein Großteil der Bevölkerung lebt woanders. Teilweise findet man diese Menschen auf Facebook, teilweise müssen Reporter öfter weiter weg von ihrer Redaktion recherchieren.

Was Facebook tun kann: Mitspracherecht für Nutzer

Auch bei Facebook selbst gibt es keinen Mitarbeiter, der exakt weiß, wie der Algorithmus funktioniert. Tatsächlich ist "der Facebook-Algorithmus" ein komplexes Zusammenspiel aus vielen tausend unterschiedlichen Kriterien und Signalen, an dem Hunderte talentierte Programmierer mitgeschrieben haben. Genauso wenig wie Google jemals seinen kompletten Suchalgorithmus offenlegen dürfte, wird sich Facebook für Nutzer und potenzielle Konkurrenten nackig machen. Dass deutsche und europäische Digitalpolitiker ihren entsprechenden Forderungen mit schmerzhaften Konsequenzen Nachdruck verleihen, müssen die kalifornischen Konzerne aktuell nicht befürchten.

In dieser Hinsicht gleicht Facebook Unternehmen wie Coca-Cola: Beide hüten ihr Erfolgsrezept. Im Unterschied zu Facebook hat die Zusammensetzung eines Softgetränks allerdings wenig Auswirkung auf die politische Meinungsbildung von Milliarden Menschen. Schon lange ist das Netzwerk keine neutrale Plattform mehr, die lediglich nutzergenerierte Inhalte darstellt. Facebooks Algorithmen gewichten, sortieren und beeinflussen damit das Weltbild der Nutzer. Der Effekt mag weniger stark sein als befürchtet, aber er ist messbar und wird zunehmen, je weiter Facebook wächst.

Es geht nicht darum, dass Facebook entscheidet, was gut oder schlecht, wahr oder falsch ist. Ein erster Schritt könnte es sein, Nutzern besser zu erklären, wie der Newsfeed funktioniert. Warum sehe ich das Hochzeitsfoto meiner alten Schulfreundin, nicht aber den letzten Link, den mein Kollege gepostet hat? Nutzer müssen wissen, nach welchen Kriterien Algorithmen entscheiden. Dann können sie auch Einfluss auf die Software nehmen.

Adam Mosseri, Produktverantwortlicher für den Newsfeed, sagt, dass Facebook im kommenden Jahr transparenter werden und Nutzern mehr Einblicke geben möchte. Bislang sind es nur vage Willensbekundungen, aber noch vor kurzem wäre eine solche Ankündigung kaum vorstellbar gewesen. Vielleicht bekommt Zeynep Tufekci ja doch noch, was sie sich schon 2015 wünschte - die Möglichkeit, dem Newsfeed-Algorithmus zu sagen: "Bitte zeige mir mehr Inhalte, die nicht meiner Meinung entsprechen".

Dieser Beitrag ist Teil der großen Datenrecherche der SZ, in der wir die politische Macht auf Facebook analysiert haben. Lesen Sie:

  • Von AfD bis Linkspartei - so politisch ist Facebook

    Sieben Parteien, 5000 Nutzer, eine Million Likes: Eine große SZ-Datenrecherche hat die politische Landschaft auf Facebook vermessen - drei zentrale Thesen aus dem Datensatz.

  • Sahra Wagenknecht Frauke Petry Was links und rechts verbindet - und trennt

    Feindbilder, Gutmenschen und Jan Böhmermann: Das hat die SZ-Datenrecherche über linke und rechte Vorlieben, die wichtigsten Köpfe und die Macht der Satire herausgefunden.

  • Der Facebook-Faktor

    2017 findet Wahlkampf auch auf Facebook statt. Und die Betonung liegt auf "Kampf". Wie dort Politik gemacht wird und das soziale Netzwerk die Bundestagswahl beeinflusst.

© SZ.de/jab/dd

Lesen Sie mehr zum Thema

Zur SZ-Startseite