Das Wissen der Welt wird schnell geliefert, aber es ist mühsam, sich die Antworten auf ein Suchbegehren aus den einzelnen Ergebnissen zusammenzuklauben. Weil der Normalo-Nutzer davon auszugehen scheint, dass eine Quelle umso wahrer ist, je höher sie auf Google sortiert wird, setzt das Unternehmen seit einiger Zeit sogenannte Featured Snippets ein, prominent abgesetzte Textkästen, die die Antwort auf eine ausformulierte Frage beinhalten. Das funktioniert bei Statistiken und feststehenden Daten ausgezeichnet: Wann ist Ostern? Wie alt ist Angela Merkel?
Sucht man aber Antworten auf komplexere Fragen, kommt es, wie das Onlinemagazin The Outline berichtet, kommt es dabei oft zu haarsträubenden Fehlern. Wendet man sich mit entsprechenden Fragen an Google, lernt man, dass Barack Obama in den USA einen Staatsstreich plant oder dass Impfstoffe Alzheimer auslösen.
Die "eine Antwort" gibt es schon zu jeder zehnten Suchanfrage
Die angeführten Quellen reichen von rechts angehauchten Esoterik-Blogs über rassistische Facebook-Gruppen hin zu obskuren nigerianischen Nachrichten-Portalen. Es hapert also an den Quellen, aus denen der Google-Algorithmus seine Antworten zieht. Das ist kein Wunder. Vermarktungsagenturen und Suchmaschinenoptimierer schreiben ganze Abhandlungen darüber, wie man eigene Inhalte in der Featured-Snippet-Sektion platzieren kann.
Seit einem knappen Jahr gibt es die Funktion für die deutsche Version von Google. Im englischsprachigen Web ist man weiter, Schätzungen zufolge wird jeder zehnten Suchanfrage ein Featured Snippet vorangestellt. Das sind bei circa fünfeinhalb Milliarden Suchanfragen täglich schon eine ganze Menge. All das wird spätestens dann problematisch, wenn die Menschen in Umfragen angeben, Suchmaschinen in Sachen Nachrichten am meisten zu vertrauen. Beinahe zwei Drittel aller Befragten gaben kürzlich Umfrage an, vor allem auf Google und Co zu setzen.
Erst im vergangenen Dezember berichtete der Guardian von haarsträubenden Ergebnissen bei der Funktion, Suchanfragen automatisch zu vervollständigen. Auf den Beginn von "Frauen sind ...", "Juden sind..." oder "Muslime sind ..." lautete der erste Vorschlag: böse. Diese Diskriminierungen hat Google inzwischen manuell behoben. Aber es scheint noch eine Menge Arbeit zu warten.