Eli Pariser und die "Filter Bubble" Ausweitung der Komfortzone

Googles personalisierte Suche führt dazu, dass wir nur noch angezeigt bekommen, was uns vermeintllich interessiert. Doch welche Folgen hat das? Ein Gespräch mit dem Autor und Netzkritiker Eli Pariser über sinnvolle Algorithmen, rechte Verschwörungstheorien und die Engstirnigkeit des World Wide Web.

Interview: Johannes Kuhn und Mirjam Hauck

Eli Pariser, Autor der "Filter Bubble"

(Foto: oH)

Es klingt nach Nutzerfreundlichkeit, wenn Algorithmen bei Google und Facebook nur das einblenden, was uns interessiert. Eli Pariser, der frühere Chef der Aktivisten-Plattform Moveon.org, sieht darin eine Gefahr: Er kritisiert, dass wir das Internet inzwischen nur noch durch Filter wahrnehmen und deshalb möglicherweise bald in einer Blase leben, in der alle unserer Meinung sind. Sein Buch "The Filter Bubble" löste in den USA eine Debatte über Engstirnigkeit im grenzenlosen World Wide Web aus. Nun ist das Werk im Hanser Verlag auf Deutsch erschienen.

Süddeutsche.de: Herr Pariser, im Mai 2011 kam "Filter Bubble" in den USA auf den Markt. Haben Sie das Gefühl, dass die Debatte zu einem Umdenken geführt hat?

Eli Pariser: Es hat sich etwas geändert, aber in beide Richtungen. Google ermöglicht es inzwischen, die persönlichen Suchergebnisse abzustellen. Facebook hat das "Gefällt mir"-Konzept erweitert, weil es eben noch etwas anderes als Sympathie gibt und ich bei einer Meldung über den Völkermord in Darfur sicherlich nicht auf den "Gefällt mir"-Knopf drücken würde. Gleichzeitig führt Google die Konten seiner Nutzer zusammen und blendet nun bei den Suchergebnissen prominent ein, wenn Freunde bei Google Plus einen Begriff erwähnt haben. Das ist eine neue Form der Hyperpersonalisierung.

Süddeutsche.de: In der deutschen Ausgabe trägt Ihr Buch den Untertitel "Wie wir im Internet entmündigt werden". Das hört sich an, als könnten wir nichts gegen diesen Trend tun.

Eli Pariser: Es ist zu früh zu sagen, ob wir wirklich hilflos sind. Am Ende geht es darum, ob wir Werkzeuge benutzen oder die Werkzeuge uns. Jemand der sich gut auskennt und das Problem versteht, kann die Filterblase zum Platzen bringen. Aber viele Internetnutzer sind noch nicht so weit, weil es nicht leicht ist, diese neue seltsame Welt ohne technischen Hintergrund zu verstehen.

Süddeutsche.de: Zumal es ja erst einmal nützlich ist, wenn mir Google anhand meiner Interessen beim Wort "Golf" zum Beispiel ein Auto vorschlägt statt eines Golfplatzes in der Nähe.

Pariser: In diesem Kontext ist das kein Problem. Aber nehmen wir den Suchbegriff "Barack Obama". Die meisten Menschen werden seine Webseite, Wikipedia-Einträge und ähnliches auf der ersten Seite bekommen. Aber einige erhalten womöglich Seiten vom rechten Rand des Spektrums, in denen fälschlicherweise behauptet wird, Obama sei kein Amerikaner und damit unrechtmäßig Präsident -weil Google anhand der Daten erkennt, dass sich diese Menschen für diese Verschwörungstheorie interessieren. So entsteht eine unsichtbare Echo-Kammer, in der wir gefangen sind, ohne es zu wissen.

Süddeutsche.de: Aber ist ein Unternehmen wie Google dafür wirklich verantwortlich, wie wir uns informieren?

Pariser: Ich habe einen Google-Sprecher einmal nach der redaktionellen Verantwortung gefragt. Er hat geantwortet: Wir haben keine. Die Herausforderung seines Unternehmens sei es, herauszufinden, was die Menschen wollen und ihnen die passenden Suchergebnisse zu liefern. Aber es sind meist schnelle Impulse, die Menschen zum Klicken auf einen Link verleiten, nicht Inhalte, die womöglich eine weniger unmittelbare Befriedigung geben. Und wenn die personalisierte Suche sich bei der nächsten Anfrage an diesen Klicks orientiert, verstärkt sich der Effekt noch. Das ist es, was mir an Googles Definition von Relevanz Sorgen macht.

Süddeutsche.de: Wie könnte eine Regulierung aussehen?

Pariser: Es geht nicht darum, die Filter abzuschaffen - es geht darum, wie transparent diese Filtermethoden sind. Wissen wir, wie sie funktionieren? Haben wir Kontrolle über die Parameter, kann ein Filter garantieren, dass die Nutzer die wichtigen Dinge weiter wahrnehmen können?

Süddeutsche.de: Wie wichtig ist technisches Verständnis für diese Debatte?

Pariser: Algorithmus-Alphabetisierung wird für unsere Gesellschaft immer wichtiger. Wenn wir sehen, wie wichtige Entscheidungen von Politik und Unternehmen durch Algorithmen bestimmt werden, müssen wir verstehen lernen, wo diese Berechnungen gut sind und wo überflüssig. Im Falle von Unternehmen wie Google und Facebook haben wir es mit Firmen zu tun, die für einen großen Teil der Weltbevölkerung indirekt als Informationsmakler fungieren - wie bei Nachrichtenmedien müssen wir beginnen, sie danach zu beurteilen, ob sie in unserem gesellschaftlichen Interesse handeln. Und wenn sie das nicht tun, müssen wir sie an ihre Bürgerpflichten erinnern.

Süddeutsche.de: Unternehmen bewegen sich häufig, wenn es Konkurrenz gibt. Lässt die gegenwärtige Marktlage im Bereich soziale Netzwerke und Suche überhaupt eine Infrastruktur zu, die nicht auf ein Monopol hinausläuft?

Pariser: Ich kann mir gut vorstellen, dass jemand eine Wikipedia der Internet-Suche entwickelt, die auf Transparenz setzt. Allerdings besitzt Google heute Milliarden und Abermilliarden von Daten, um die Suche verbessern zu können - diese Bedingungen können Startups nicht so schnell schaffen. Ich hoffe aber, dass wir eine größere Vielfalt bekommen. Bei Facebook geht es um Datenportabilität, die Frage, ob ich meine Facebook-Informationen auch mit einem Konkurrenzportal verbinden kann. Das ist womöglich vor allem eine Regulierungsfrage.

Süddeutsche.de: Bedeutet etwas wie "Search Plus World", also das Einbinden von Ergebnissen aus Google Plus in die Suchresultate das Ende der neutralen Suche?

Pariser: Es ist ein großer Schritt in diese Richtung, und wir sind noch nicht am Ende. Aber womöglich nehmen die Nutzer die neue Funktion sowieso nicht an: Wenn sie nach dem Begriff "Journalist" suchen, wollen sie keinen Eintrag ihrer Freunde sehen, in denen diese das Wort verwendet haben, sie suchen nach einem Journalisten.

Süddeutsche.de: Ist die Filterblase ein reines Internet-Phänomen oder zeichnet sie nur eine gesellschaftliche Entwicklung nach?

Pariser: Es gibt eine interessante Studie der Universität Wisconsin, in der über Jahrzehnte beobachtet wurde, wie die wachsenden Auswahlmöglichkeiten eine Gesellschaft verändern. Das Resultat: Wenn Gesellschaften reicher werden und Menschen eine größere Auswahl erhalten, beginnen diese mit einem Sortierprozess: Sie nähern sich psychologisch und physisch Menschen an, die ihnen ähnlich sind. Wir erleben also generell eine größere kulturelle Heterogenität, weil es eine größere Zahl unterschiedlicher Kulturen gibt, während sich gleichzeitig mehr und mehr Menschen mit Ihresgleichen umgeben und ein Leben anstreben, in dem sie sich von anderen Lebensentwürfen abschotten können. Das gilt auch für die Online-Welt - und wir müssen uns daran erinnern, dass es in dieser Komfortzone zwar unglaublich bequem ist, wir als menschliche Wesen jedoch etwas verpassen.

Was halten Sie von Thesen Eli Parisers? Diskutieren Sie mit uns - hier in den Kommentaren, bei Google+ oder Facebook.