"Algorithmus" war einmal ein unschuldiges, ein bisschen langweiliges Wort, so ähnlich wie "Grammatik" oder "Multiplikation". Frank Schirrmacher widmete ihm 2009 ein Kapitel in "Payback", beschränkte sich aber auf eine ausführliche Erklärung, was so ein Algorithmus für ein Vogel sei. In der Presse tauchte das Wort auch weiterhin nur dann auf, wenn jemand sagen wollte, dass da etwas Kompliziertes in einem Computer vorging, was man aus Rücksicht auf den Leser jetzt nicht so genau erklären mochte.
So ging das bis zum Frühjahr 2010. Dann hielt die Kommunikationswissenschaftlerin Miriam Meckel einen Vortrag in Berlin, in dem sie den Vormarsch der Algorithmen und das Verschwinden des Zufalls beklagte. Wenige Tage später kritisierte Schirrmacher in der FAZ, dass nach dem Ausbruch des Eyjafjallajökull der Luftverkehr aufgrund von Simulationen und "sozialen Algorithmen" stillgelegt wurde.
Seither ist kein Monat ohne großen Feuilletonbeitrag über das unbeaufsichtigte Treiben der Empfehlungs- und Filteralgorithmen vergangen, und seit dem Erscheinen von Eli Parisers Buch über die "Filter Bubble" Mitte 2011 ist "Algorithmus" auf dem besten Weg zum Schulhofschimpfwort. Zuletzt verdammte der Medientheoretiker Geert Lovink vor wenigen Wochen die "Arroganz" der "rücksichtslosen Algorithmen".
Auch Geisteswissenschaftler müssen Algorithmen jetzt ernst nehmen
Diese schlechte Presse bedeutet aber auch: Die Algorithmen sind besser geworden, so viel besser, dass auch Geisteswissenschaftler sie ernst nehmen. Das Argument "Menschen treffen bessere Entscheidungen als Maschinen, und so wird es immer bleiben" reicht nicht mehr, man muss jetzt fundiertere Kritik üben. Und das ist gar nicht so einfach.
Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen - und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen - nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.
Wo Miriam Meckel irrt
Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruht auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion "Genius". Genius erzeugt automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt: "Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen."
Genius aber kann dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet. Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können.
Es gibt eine Vielzahl anderer Angebote, die genau die von Meckel geforderten neuen Impulse bereitstellen - eigentlich tut das praktisch jeder Musikdienst, der nicht Genius heißt. Davon abgesehen ist es technisch kein Problem, neuere Daten beim Erzeugen von Empfehlungen stärker zu gewichten. Sobald ein Empfehlungssystem über Daten aus einem längeren Zeitraum verfügt, wird es genau das tun.
"Alle Unbekannten in dieser Gleichung", hakte Meckel einige Wochen nach ihrem Berliner Vortrag nach, "werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt." Abgesehen davon, dass die "Unbekannten in dieser Gleichung", die "von vornherein herausgerechnet werden", nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.
Die konkurrierende Theorie vom "Long Tail" besagt, dass gerade individuell zugeschnittene Empfehlungsalgorithmen die Käufer schon jetzt vom Mainstream weg und in Nischen hineinsteuern und das in Zukunft noch stärker tun werden. Begründungsbedürftig wäre daher, warum der "gleichförmige Fluss von Mainstreaminhalten" nicht viel eher dort entstehen soll, wo eben keine personalisierten Empfehlungen am Werk sind und wo schon aus Platzgründen nur ein winziger Bruchteil der gesamten kulturellen Produktion berücksichtigt werden kann: in Bestsellerlisten, in Buchhandlungen, im Radio und in der Presse.
Liefern Algorithmen "unerfindliche Diktate eines kafkaesken Staats"?
Der Informatiker David Gelernter kritisierte im April 2010 in der FAZ im Zusammenhang mit Klimamodellen, die Softwaremodelle, auf die wir uns verließen, seien zu komplex. Ihre Urteile ähnelten "den unerfindlichen bürokratischen Diktaten eines kafkaesken Staats, denen fraglos Folge zu leisten ist, obwohl keiner sie erklären kann".
Der entscheidende Unterschied zum kafkaesken Diktat ist aber bei Empfehlungen wie bei Klimamodellen, dass man problemlos feststellen kann, wie zutreffend sie sind. Den empfohlenen Film sieht man sich an, beim Klima muss man ein paar Jahre warten, aber in beiden Fällen ist die Übereinstimmung von Prognose und Realität leicht zu überprüfen.
Tatsächlich gibt es Fälle, bei denen das nicht möglich ist, etwa bei den intransparenten Filterverfahren, die sich in letzter Zeit zunehmender Beliebtheit erfreuen. Facebook gewährt dem Nutzer weder Einblick in noch Kontrolle über die Regeln, nach denen es Beiträge ausblendet oder nach oben befördert. Sinnvolle Kritik daran lässt sich aber nur üben, wenn man ihren Gegenstand präzise benennen kann und dessen spezifische Probleme kennt. Das unterschiedslose Algorithmenbashing ist so unfruchtbar wie Kritik der 1980er Jahre an "den Computern".
Es ist nicht so, als gäbe es keine Probleme mit Empfehlungs- und Filteralgorithmen. Es sind nur nicht die, an denen sich Geisteswissenschaftler abarbeiten. Bei Musik, Filmen und Büchern kranken die Systeme beispielsweise daran, dass auch die anderen Nutzer, aus deren Verhalten die Empfehlungen abgeleitet werden, ja nicht etwa unabhängig von Bestsellerlisten, Mainstreammoden und Ländergrenzen sind.
Wer beim Internetradio last.fm finnischen Punkrock hört, wird noch lange keinen bulgarischen Punkrock vorgespielt bekommen, weil es einfach zu wenige Nutzer gibt, in deren Musikhörverhalten beides vorkommt. Das Problem lässt sich durch Hybridverfahren lindern, bei denen sowohl das Nutzungsverhalten anderer Menschen als auch Gemeinsamkeiten zwischen den zu empfehlenden Musikstücken, Filmen oder Büchern ausgewertet werden.
Das messbare Verhalten unterscheidet sich nun mal von dem gefühlten
Andere Probleme sind ebenso real, aber nicht die Schuld der Technik. Klagen über Mainstream-Empfehlungen oder darüber, dass Facebook bestimmte Freunde aus unserem Stream ausblendet, rühren daher, dass unser messbares Verhalten nicht immer unserem gefühlten Verhalten entspricht oder dem, das wir gern an den Tag legen würden. Wer jahrelang Mainstreamtitel bei Amazon gekauft hat, der bekommt eben auch welche empfohlen, und wer nie auf die Facebookupdates eines Freundes reagiert, bei dem geht der Algorithmus mit einem gewissen Recht davon aus, dass das Interesse an dieser Person so groß nicht sein kann. Klagen über das Ergebnis sind Klagen darüber, dass Wunsch und Wirklichkeit auseinanderklaffen.
Und schließlich erkennen wir gute Empfehlungen nicht unbedingt, wenn wir sie sehen. Gerade die korrekten, aber entlegenen Empfehlungen, die Kritiker fordern, sind am schwersten anzunehmen, weil sie auf den ersten Blick nichts mit dem zu tun haben, was wir schon kennen. Insofern haben die langweiligen, vorhersehbaren Empfehlungen eine wichtige Funktion: Sie versichern uns, dass der Algorithmus weiß, was er tut und wir ihm auch dann vertrauen können, wenn er hin und wieder einen scheinbar abwegigen Vorschlag macht.
So unzutreffend Gelernters Vorwurf vom kafkaesken Diktat inhaltlich ist, zeigt die Beliebtheit der Algorithmenkritik doch, dass man ihn auf der emotionalen Ebene ernst nehmen muss. Es fühlt sich nicht gut an, nicht zu wissen, aus welchem Hut die Maschine ihre Entscheidung zaubert.
Selbst die Programmierer können Empfehlungen nicht mehr nachvollziehen
Eine simple Linderung dieses Problems wäre es, dem Vorbild von Amazon folgend jeder Empfehlung eine "Warum wurde mir das empfohlen?"-Erklärung mitzugeben. Wirkliche Transparenz ist dabei kaum machbar, weil außer einer Handvoll Fachleute niemand die Erklärung verstehen würde. Und selbst das ist fraglich: 2009 wurde der mit einer Million US-Dollar dotierte "Netflix Prize" für die Verbesserung von Film-Empfehlungen verliehen. Die am Wettbewerb beteiligten Teams gaben in Interviews an, nicht mehr nachvollziehen zu können, wie ihre eigenen Algorithmen zu manchen Ergebnissen gelangen. Dass die Empfehlungen treffsicher sind, ist unstrittig, weil sich ihre Qualität anhand der abgegebenen Nutzerbewertungen überprüfen lässt. Aber der Weg dorthin erschließt sich auch den Programmierern nicht mehr.
Wer einen "Warum wurde mir das empfohlen?"-Link anklickt, kann daher nichts anderes als eine stark verkürzte Erklärung erhalten. Trotzdem hätten beliebige Antworten an diesen Stellen vermutlich eine beruhigende Wirkung auf Nutzer wie Kulturjournalisten. Falls sich das nicht durchsetzen lässt, müssen wir eben abwarten, bis sich alle an das neue Zeug gewöhnt haben oder ein anderes digitales Schreckgespenst aus dem Schrank kommt.
Die Autorin gehört zu den Mitbegründern der Zentralen Intelligenz Agentur. Zuletzt erschien von ihr "Das neue Lexikon des Unwissens" (gemeinsam mit Aleks Scholz und Kai Schreiber, Rowohlt Berlin 2011).