Suchmaschinen Autocomplete: "Merkel ..."

Nur wenige Tipps und Klicks von den eigenen Vorlieben entfernt: Google ist bemüht, jedem Nutzer das anzuzeigen, was für ihn persönlich interessant ist.

(Foto: oh)

"... muss weg" oder "... Alter": Zu welchen Suchergebnissen Google Nutzer führt, hängt auch vom Nutzer ab. Können die Ergebnisse auch Wahlen beeinflussen?

Von Eva Wolfangel

Wer an einem Morgen im September am Computer sitzt und "Merkel" in die Suchmaschine Google eingibt, könnte als Ergänzungsvorschläge zum Namen der Bundeskanzlerin "news", "Rosenheim" und "muss weg" bekommen. "Autocomplete" heißt diese Funktion: Die Suche wird automatisch vervollständigt, abhängig davon, was Google für die Interessen des Menschen hält, der da am Computer sitzt. Klickt dieser "muss weg" an, erscheinen: Beiträge der rechtspopulistischen Zeitschrift "Compact", eine rechte Facebook-Gruppe namens "Merkel muss weg", eine rechte Anti-Merkel-Twittergruppe und dann schnell die AfD. Googelt derselbe Mensch hingegen mit seinem Smartphone, bekommt er möglicherweise keinen "Muss-weg"-Vorschlag, sondern unter anderem "Alter". Selbst die Suche nach "Merkel muss weg" kann dann zur Augsburger Allgemeinen und zu einer kritischen Gruppe der Jusos führen.

Dieses nicht repräsentative und zufällige Experiment zeigt zumindest eines: Was die Suchmaschine ihren Nutzern empfiehlt, ist nicht immer das Gleiche. Denn Google ist bemüht, jedem Nutzer das anzuzeigen, was für ihn persönlich interessant ist. Mit diesem Versprechen hat Google 2005 seine personalisierte Suche eingeführt, bis heute Googles Alleinstellungsmerkmal. Dafür sammelt der Konzern Daten der Nutzer - welche Seiten haben sie bisher besucht, was klicken sie an - und passt die Liste der Suchergebnisse an deren vermeintliche Interessen an.

Diese personalisierte Suche mag bequem sein, weil Nutzer eventuell tatsächlich die für sie relevanten Ergebnisse angezeigt bekommen. Aber Google hat damit große Macht. Der Internetaktivist Eli Pariser prägte 2011 den Begriff der Filterblase: Solche Algorithmen könnten radikale Weltbilder stärken, weil andere Meinungen ausgeblendet werden. Allerdings ließ sich bisher kaum belegen, welchen Effekt diese Personalisierung hat, da auch das System hinter der Suche ein gut gehütetes Geheimnis ist. Wer wissen will, inwiefern sich die Treffer verschiedener Nutzer unterscheiden, muss Experimente wie das eingangs erwähnte machen - nur in großem Stil.

Dieselbe Person bekommt auf Rechner und Handy unterschiedliche Ergebnisse

Doch selbst mit solchen Daten bleibt vieles Spekulation. Die unterschiedlichen Ergebnisse könnten daher rühren, dass jemand Google auf dem Computer normalerweise nicht benutzt und Cookies immer löscht: Google weiß dann kaum etwas über die Person am Rechner. Das Android-Handy desselben Menschen kennt seinen Besitzer möglicherweise besser. Die unterschiedlichen Empfehlungen könnten aber auch an den Geräten liegen, am Standort oder daran, dass Google just in dem Moment, an dem man vom Computer zum Handy wechselt, Veränderungen im Algorithmus vorgenommen hat.

Das sind viele Konjunktive. Auf ähnliche Weise rätseln Forscher seit einigen Jahren, wie die Ergebnislisten zustande kommen. Und mehrere Studien deuten nun darauf hin, dass sich zumindest bei der Personalisierung in jüngster Zeit etwas geändert hat: Gab es vor einigen Jahren noch zahlreiche Beispiele für sehr unterschiedliche Empfehlungen, scheint es inzwischen nur noch wenige Unterschiede zu geben.

So bittet die deutsche Initiative AlgorithmWatch Nutzer seit einigen Wochen darum, auf ihren Computern ein Zusatzprogramm zu installieren, das regelmäßig Suchanfragen an Google stellt und die Ergebnisse an die Initiative schickt. Die bisherige Auswertung auf Anfragen wie Namen der Parteien und Kandidaten für die Bundestagswahl ergab, dass eine Personalisierung nur eine sehr geringe Rolle spielt. "Acht bis neun Treffer waren für die meisten der knapp 600 Nutzer gleich und variierten hauptsächlich in der Reihenfolge", sagt Katharina Zweig, Professorin für Netzwerktheorie an der TU Kaiserslautern. Wo es Unterschiede gab, lagen diese offenbar vor allem an der Regionalisierung der Ergebnisse: Nutzer bekamen etwa bei der Suche nach Parteien bevorzugt Seiten von Ortsverbänden in ihrer Nähe angezeigt.

Dennoch seien auch einige auffällige Gruppen von Nutzern aufgetaucht, die mit den anderen Nutzern nur zwei oder drei gemeinsame Ergebnisse haben, sagt Zweig: "Das können wir uns nicht erklären mit den Informationen, die wir haben." Besonders betrifft das die AfD: Viele Nutzer sahen bei der Suche nach "AFD" vor allem Nachrichtenartikel aus etablierten Medien und erst auf dem vierten und fünften Platz die Website der Partei. Andere dagegen bekamen ein ganz anderes Ergebnis, mit Partei-Homepage samt Facebook-Auftritt auf den ersten Plätzen und dann eher allgemeine Informationen wie einen Wikipedia-Eintrag und Übersichtsartikel aus Zeitungen. "Ich glaube nicht, dass Personalisierung keine Rolle spielt", sagt Zweig nach ihrer ersten Zwischenanalyse, "aber klar ist: Wir leben nicht in geschlossenen Filterblasen." Dennoch habe sie sich auch gewundert: "Wir hatten alle das Gefühl, dass die Personalisierung schon mal stärker war."

Google schweigt beharrlich

Ist das so? Der Google-Konzern, der das beantworten könnte, schweigt beharrlich. Auffällig ist aber eine gewisse Empfindlichkeit bei diesem Thema. Es scheint gerade so, als wolle man weder, dass der Eindruck entstehe, dass Ergebnisse personalisiert sind - noch, dass sie es nicht sind. Personalisierung ist einerseits das Merkmal, womit der Konzern um Werbekunden wirbt. Andererseits wird sie gerade in Deutschland kritisiert. Schließlich gab es nach der Wahl in den USA Diskussionen, inwiefern Filterblasen-Effekte Populismus verstärken. Solche Anfragen werden derzeit nicht beantwortet. Man wolle warten, was das Datenspende-Projekt ergebe, so Google-Sprecher Ralf Bremer - als bedürfe es einer externen Evaluation, um das eigene Vorgehen zu verstehen.

Bundestagswahl Bringen Sie Licht in den dunklen Facebook-Wahlkampf
Bundestagswahl

Bringen Sie Licht in den dunklen Facebook-Wahlkampf

Auf Facebook können Kandidaten ihre Wahlwerbung für bestimmte Menschen maßschneidern - und keiner weiß, wer welche politischen Botschaften sieht. Mit diesem Tool können Nutzer mithelfen, Tricks der Parteien aufzudecken.   Von Jannis Brühl und Vanessa Wormer

Einige der offenen Fragen von AlgorithmWatch kann eventuell Grant Blank beantworten. Der Forscher am Oxford Internet Institute hat mit Kollegen der Michigan State University an sieben neuen Computern Google-Suchanfragen gestellt und die Geräte unterschiedlich "trainiert": an manchen Rechnern schien ein Anhänger der US-Demokraten zu sitzen, an anderen ein Fan der Republikaner. Im Wesentlichen habe sich nur die Reihenfolge der ersten zehn Suchergebnisse unterschieden: "Lediglich der Ort schien eine große Rolle zu spielen", sagt Blank.

Die große Frage ist, ob Google-Ergebnisse die politische Meinung beeinflussen

Etwas mehr Unterschiede fand die Gruppe rund um das "Autocomplete"-Tool, das dem Nutzer auf Basis der ersten Buchstaben oder des ersten Wortes Tipps gibt, wonach er suchen könnte. 30 bis 36 Prozent dieser Vorschläge seien personalisiert gewesen, allerdings seien auch hier keine Filterblasen der politischen Orientierung entstanden, so die Forscher. Lediglich thematische Filterblasen könnte es geben: Nutzer, die stark nach politischen Themen suchten, erhielten auch politischere Vorschläge. So wurden Suchanfragen vor dem Training anders ergänzt als nachher: "terrorism" etwa wurde zunächst mit "news" ergänzt, nach dem Training auf politische Inhalte hingegen mit "and privacy". Und "Donald Trump" erst mit "memes", nach dem Training hingegen mit "immigration" und "climate change". Deutliche Unterschiede für "rechte" und "linke" Nutzer hingegen fielen nicht auf. Um das zu beurteilen, mag der Test mit sieben "Nutzern" aber auch zu klein gewesen sein.

Doch beeinflussen die Suchergebnisse überhaupt die politische Einstellung der Nutzer? Blank und Kollegen befragten neben ihren technischen Experimenten auch je 2000 nach repräsentativen Kriterien ausgewählte Internetnutzer aus Großbritannien, Frankreich, Deutschland, Polen, Italien, Spanien und den USA. Davon erklärte eine deutliche Mehrheit, dass die Internetsuche eine sehr zentrale Informationsquelle für sie sei und zudem vertrauenswürdiger als Fernsehen, Radio, Freunde und Familie. 68 Prozent gaben an, die Suche zu nutzen, um zu entscheiden, wen sie wählen wollen und 42 Prozent geben die Suche als Quelle an, auf deren Basis sie ihre politischen Ansichten ändern.

Das bringt eine große Verantwortung mit sich, sagt Blank: "Die Art Information, die unterschiedliche Menschen bekommen, kann einen großen Einfluss darauf haben, wie diese ihre politische Meinung entwickeln." Da sich die Such-Algorithmen ständig änderten und zudem nicht einsehbar seien, sei es extrem schwierig zu wissen, was genau einzelne Nutzer zu sehen bekommen. Seine Studie ist übrigens von Google finanziell unterstützt worden - "die Datensammlung ist teuer", sagt Blank, doch es habe keinerlei inhaltliche Beeinflussung gegeben. Welches Interesse der Konzern an solchen Untersuchungen hat, ist bei Google nicht zu erfahren - manche Forscher vermuten sogar, dass Google selbst nicht so genau weiß, welche Auswirkungen der eigene Algorithmus hat.

Wissenschaftler halten allerdings auch fest, dass nicht nur Personalisierung eine Rolle spielt, sondern auch andere Faktoren des Suchergebnisse-Rankings: Der Algorithmus bewertet jene Internetseiten als relevanter, die viel gelesen und angeklickt werden. "Das führt dazu, dass die Bekannten immer bekannter werden, während die Unbekannten unbekannt bleiben", sagt Blank. Und das nutze in Zeiten wie diesen vor allem dem Populismus. Die Nutzer füllten für seine Studie zusätzlich einen Populismus-Fragebogen aus, und dabei sei ein Zusammenhang deutlich geworden, erklärt Blank: Wer ohnehin populistische Ansichten hat, der misstraut oft den Medien - und lässt sich besonders leicht von dem beeinflussen, was Google ihm präsentiert.

Suchmaschine

So werden Sie zum Google-Profi