Wie Google und Co. uns andere Standpunkte vorenthalten:Welt ohne Gegenmeinung

Was wir bei der Google-Suche und im Facebook-Freundesstrom zu sehen bekommen, errechnen komplexe Algorithmen längst individuell aus unseren Vorlieben. Was wie ein Service am User aussieht, kommt nun heftig in die Kritik: Leben wir bereits in einer Filter-Blase?

Dirk von Gehlen

Bisher war die Blase ein wirtschaftliches Bild. Wer die Metapher in Bezug auf die Digitalisierung nutzte, bezog sie auf die überhitzte Netz-Begeisterung Anfang des Jahrtausends. Das könnte sich jetzt ändern.

Facebook

Der Edge-Rank bei Facebook berechnet, was dem User angezeigt wird.

(Foto: dpa)

Der amerikanische Autor Eli Pariser verwendet das Bild, um zu beschreiben, was es bedeuten kann, in einer durch die Algorithmen der großen Netzfirmen bestimmten Öffentlichkeit zu leben, die sich nicht mehr vor dem gemeinsamen Lagerfeuer aller, sondern in den personalisierten Interessensräumen des Einzelnen bildet.

Eine Öffentlichkeit also, die aus vielen kleinen Filter-Blasen besteht. Unter diesem Titel ("Filter Bubble") beschreibt Pariser in seinem dieser Tage in Amerika veröffentlichten Buch, wie die Gefällt-mir-Ökonomie des Netzes die Vorstellung von Relevanz neu definiert und so die gelernten Begriffe von Öffentlichkeit und Demokratie zu verschieben droht.

In der sogenannten Kultur des Teilens, die im Web gepflegt wird, vermischen sich die privaten Nachrichten von Freunden mit den klassischen politischen Meldungen der Medien. Beide treten in einen Kampf um Aufmerksamkeit, in dem eher das private Interesse als die öffentliche Bedeutung die Relevanz einer Meldung bestimmt.

Was relevant ist, entscheidet die Software

Pariser stellt seinem Buch ein Zitat von Facebook-Chef Mark Zuckerberg voran, der bekennt, dass ein im Vorgarten sterbendes Eichhörnchen für ihn persönlich durchaus relevanter sein kann als sterbende Menschen in Afrika. Zuckerberg baut auf dieser Interpretation von Relevanz sein stetig wachsendes Netzwerk auf, innerhalb dessen Status-Meldungen und Nachrichten in genau dieser Art gewichtet werden.

Der sogenannte Edge-Rank von Facebook wertet aus, wie ein Nutzer auf die Beiträge seiner Freunde reagiert und errechnet aus diesen Daten, welche Beiträge ihm künftig prominenter und welche womöglich gar nicht mehr angezeigt werden - weil sie offenbar keine Relevanz mehr besitzen, sonst hätte der Nutzer sie ja vorher schon mal angeklickt oder kommentiert. Relevanz leitet sich also nicht mehr aus der angenommenen gesellschaftlichen Bedeutung her, sondern aus dem, wie die einzelnen Nutzer in Interaktion treten.

Was das Internet versteckt

Zuckerberg ist mit dieser Vorstellung nicht allein. "Bitten Sie mal zwei Freunde, den gleichen Begriff zu googlen", forderte Eli Pariser seine Zuhörer im März bei seinem Vortrag auf der Ted-Konferenz in Kalifornien auf und zeigte anschließend gleich selber, wozu dieses Experiment führt: zu zwei komplett unterschiedlichen Ergebnisseiten der Suchmaschine, die sich nicht nur in der Gewichtung, sondern sogar in der Gesamtzahl der gefundenen Suchtreffer unterscheiden.

Unsere Vorstellung, Google würde eine riesige Datenmenge an Informationen, die wir uns naiv als Internet vorstellen, durchsuchen und dann, nach undurchsichtigen Kriterien gewichtet, ein für jedermann gleiches Ergebnis liefern, ist eben deshalb naiv, weil sie falsch ist. Google will eigentlich keine Millionen Suchtreffer ausspucken, sondern eine zufriedenstellende Antwort präsentieren.

Und diese Antworten fallen eben für unterschiedliche Menschen sehr unterschiedlich aus. "Die ultimative Suchmaschine", zitiert Pariser den Google-Gründer Larry Page, nach dem Googles berühmter Page-Rank benannt ist, "müsste genau verstehen, wonach du suchst und genau dafür eine Antwort liefern."

Deshalb wertet Google schon heute 57 sogenannte Signale aus, die der Suchende - wissentlich und unwissentlich - mit seiner Anfrage sendet und ermittelt anhand derer, welche Ergebnisse für genau diese Suchanfrage relevant sein könnten. So kann es passieren, dass zwei junge Frauen, die zum Zeitpunkt der Öl-Katastrophe im Golf von Mexiko nach dem Begriff "BP" suchen, völlig unterschiedliche Ergebnisseiten geliefert bekommen.

Das Fremde, das Überraschende, das Widersprüchliche verschwindet

Dieses Beispiel wählt Pariser in seinem Buch, das den Untertitel "Was das Internet vor Ihnen versteckt" trägt. Denn es geht nicht nur um die Ergebnisse einer Suchmaschine oder die Gewichtung in einem sozialen Netzwerk, es geht um alle Netzakteure, die mittels computergesteuerter Filtersysteme und der gezielten Auswertung der von Nutzern erstellten Daten personalisierte Angebote liefern.

Doch was zunächst nach nutzerfreundlicher Arbeitserleichterung klingt ("wir zeigen dir nur, was dich wirklich interessiert"), ist für Eli Pariser ein demokratietheoretisches Problem: Er glaubt, dass der Computerbildschirm zu einer Art Spiegel wird und bezeichnet diesen Prozess als "unsichtbare Autopropaganda", die mehr vom Gleichen fördert, das Fremde, das Überraschende, das Widersprüchliche jedoch negiert. "Demokratie", schreibt Pariser, "braucht aber Bürger, die Dinge von einem anderen Standpunkt aus betrachten. Stattdessen werden wir mehr und mehr in unsere eigene Blase eingeschlossen."

Kein Rückzug aus dem Digitalen

Google stellte Falle für Microsoft

Pariser fordert eine Art journalistische Ethik für die filternden Netzfirmen.

(Foto: dpa)

Eli Parisers Buch ist gerade in Amerika erschienen (und für das kommende Jahr in Deutschland angekündigt). Dort sind die beschriebenen Entwicklungen weiter fortgeschritten als in Deutschland, aber sie gelten auch hierzulande. Doch die deutsche Digitalisierungsdebatte ist noch von der Überforderungsthese dominiert, der Frage nämlich, ob die Datenmenge, die das Netz produziert uns nicht den Überblick raubt.

Es gibt deshalb ein verbreitetes Kokettieren mit dem Rückzug aus dem Digitalen, mit dem Rückbesinnen auf das Überblickbare. Man könnte auch Parisers Debatten-Beitrag so verstehen, aber Rückzug ist für ihn eine Idee, die nicht in Frage kommt.

Im Gegenteil: Der 30-jährige Gründer der Graswurzel-Bewegung MoveOn.org thematisiert die Filter Bubble, weil er das Netz als demokratisches und demokratisierendes Medium schätzt, er will es eher stärken als eine Abkehr davon zu fordern.

Sein Buch liest sich denn auch wie der Wunsch nach einer stetigen Überforderung. Auf der Website zum Buch gibt er seinen Lesern Ratschläge, wie sie mit einfachen technischen Mitteln die Filter-Mechanismen austricksen können. Und seinen Ted-Vortrag beendete er mit der Forderung an die Google-Chefs: "Larry und Sergey, legt eure Filter-Mechanismen offen, gebt uns Zugang zu den Daten."

Die Idee, die Pariser dabei verfolgt, ist eine Art journalistische Ethik für die filternden Netzfirmen, die als neue Gatekeeper den Nachrichtenfluss bestimmen. Er will Google und Facebook als Öffentlichkeitsakteure in die Pflicht nehmen und nicht als Dienstleister, die Informationen filtern.

Der User ist Bürger und nicht nur Konsument

Der Page-Rank von Google und der Edge-Rank von Facebook, die wie Betriebsgeheimnisse gehüteten Filter-Algorithmen der Firmen, sollten, so fordert Pariser, öffentlich zugänglich sein. Er will an die demokratische Verantwortung der Anbieter appellieren und diese - so das nicht reicht - auch politisch verpflichten.

Dafür greift er die Idee einer digitalen Ökologiebewegung auf, die sich für einen Umweltschutz des Informationszeitalters einsetzt und den Nutzern des Web eine Stimme verleiht. Denn entscheidend sei für das verbindende und demokratische Internet, das Pariser als Ideal beschreibt, die Vorstellung vom Nutzer als Bürger und nicht nur als Kunde und Konsument.

Allein weil Pariser daran erinnert, verdient sein Buch die Relevanz, die eine Lektüre trotz aller Datenüberforderung rechtfertigt - auch wenn die Blasen-Metapher schon recht alt wirkt.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: