Zur Kritik an Algorithmen Algorithmen steuern Käufer nicht in den Mainstream

"Alle Unbekannten in dieser Gleichung", hakte Meckel einige Wochen nach ihrem Berliner Vortrag nach, "werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt." Abgesehen davon, dass die "Unbekannten in dieser Gleichung", die "von vornherein herausgerechnet werden", nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.

Die konkurrierende Theorie vom "Long Tail" besagt, dass gerade individuell zugeschnittene Empfehlungsalgorithmen die Käufer schon jetzt vom Mainstream weg und in Nischen hineinsteuern und das in Zukunft noch stärker tun werden. Begründungsbedürftig wäre daher, warum der "gleichförmige Fluss von Mainstreaminhalten" nicht viel eher dort entstehen soll, wo eben keine personalisierten Empfehlungen am Werk sind und wo schon aus Platzgründen nur ein winziger Bruchteil der gesamten kulturellen Produktion berücksichtigt werden kann: in Bestsellerlisten, in Buchhandlungen, im Radio und in der Presse.

Liefern Algorithmen "unerfindliche Diktate eines kafkaesken Staats"?

Der Informatiker David Gelernter kritisierte im April 2010 in der FAZ im Zusammenhang mit Klimamodellen, die Softwaremodelle, auf die wir uns verließen, seien zu komplex. Ihre Urteile ähnelten "den unerfindlichen bürokratischen Diktaten eines kafkaesken Staats, denen fraglos Folge zu leisten ist, obwohl keiner sie erklären kann".

Der entscheidende Unterschied zum kafkaesken Diktat ist aber bei Empfehlungen wie bei Klimamodellen, dass man problemlos feststellen kann, wie zutreffend sie sind. Den empfohlenen Film sieht man sich an, beim Klima muss man ein paar Jahre warten, aber in beiden Fällen ist die Übereinstimmung von Prognose und Realität leicht zu überprüfen.

Tatsächlich gibt es Fälle, bei denen das nicht möglich ist, etwa bei den intransparenten Filterverfahren, die sich in letzter Zeit zunehmender Beliebtheit erfreuen. Facebook gewährt dem Nutzer weder Einblick in noch Kontrolle über die Regeln, nach denen es Beiträge ausblendet oder nach oben befördert. Sinnvolle Kritik daran lässt sich aber nur üben, wenn man ihren Gegenstand präzise benennen kann und dessen spezifische Probleme kennt. Das unterschiedslose Algorithmenbashing ist so unfruchtbar wie Kritik der 1980er Jahre an "den Computern".

Es ist nicht so, als gäbe es keine Probleme mit Empfehlungs- und Filteralgorithmen. Es sind nur nicht die, an denen sich Geisteswissenschaftler abarbeiten. Bei Musik, Filmen und Büchern kranken die Systeme beispielsweise daran, dass auch die anderen Nutzer, aus deren Verhalten die Empfehlungen abgeleitet werden, ja nicht etwa unabhängig von Bestsellerlisten, Mainstreammoden und Ländergrenzen sind.

Wer beim Internetradio last.fm finnischen Punkrock hört, wird noch lange keinen bulgarischen Punkrock vorgespielt bekommen, weil es einfach zu wenige Nutzer gibt, in deren Musikhörverhalten beides vorkommt. Das Problem lässt sich durch Hybridverfahren lindern, bei denen sowohl das Nutzungsverhalten anderer Menschen als auch Gemeinsamkeiten zwischen den zu empfehlenden Musikstücken, Filmen oder Büchern ausgewertet werden.

Das messbare Verhalten unterscheidet sich nun mal von dem gefühlten

Andere Probleme sind ebenso real, aber nicht die Schuld der Technik. Klagen über Mainstream-Empfehlungen oder darüber, dass Facebook bestimmte Freunde aus unserem Stream ausblendet, rühren daher, dass unser messbares Verhalten nicht immer unserem gefühlten Verhalten entspricht oder dem, das wir gern an den Tag legen würden. Wer jahrelang Mainstreamtitel bei Amazon gekauft hat, der bekommt eben auch welche empfohlen, und wer nie auf die Facebookupdates eines Freundes reagiert, bei dem geht der Algorithmus mit einem gewissen Recht davon aus, dass das Interesse an dieser Person so groß nicht sein kann. Klagen über das Ergebnis sind Klagen darüber, dass Wunsch und Wirklichkeit auseinanderklaffen.

Und schließlich erkennen wir gute Empfehlungen nicht unbedingt, wenn wir sie sehen. Gerade die korrekten, aber entlegenen Empfehlungen, die Kritiker fordern, sind am schwersten anzunehmen, weil sie auf den ersten Blick nichts mit dem zu tun haben, was wir schon kennen. Insofern haben die langweiligen, vorhersehbaren Empfehlungen eine wichtige Funktion: Sie versichern uns, dass der Algorithmus weiß, was er tut und wir ihm auch dann vertrauen können, wenn er hin und wieder einen scheinbar abwegigen Vorschlag macht.

So unzutreffend Gelernters Vorwurf vom kafkaesken Diktat inhaltlich ist, zeigt die Beliebtheit der Algorithmenkritik doch, dass man ihn auf der emotionalen Ebene ernst nehmen muss. Es fühlt sich nicht gut an, nicht zu wissen, aus welchem Hut die Maschine ihre Entscheidung zaubert.

Selbst die Programmierer können Empfehlungen nicht mehr nachvollziehen

Eine simple Linderung dieses Problems wäre es, dem Vorbild von Amazon folgend jeder Empfehlung eine "Warum wurde mir das empfohlen?"-Erklärung mitzugeben. Wirkliche Transparenz ist dabei kaum machbar, weil außer einer Handvoll Fachleute niemand die Erklärung verstehen würde. Und selbst das ist fraglich: 2009 wurde der mit einer Million US-Dollar dotierte "Netflix Prize" für die Verbesserung von Film-Empfehlungen verliehen. Die am Wettbewerb beteiligten Teams gaben in Interviews an, nicht mehr nachvollziehen zu können, wie ihre eigenen Algorithmen zu manchen Ergebnissen gelangen. Dass die Empfehlungen treffsicher sind, ist unstrittig, weil sich ihre Qualität anhand der abgegebenen Nutzerbewertungen überprüfen lässt. Aber der Weg dorthin erschließt sich auch den Programmierern nicht mehr.

Wer einen "Warum wurde mir das empfohlen?"-Link anklickt, kann daher nichts anderes als eine stark verkürzte Erklärung erhalten. Trotzdem hätten beliebige Antworten an diesen Stellen vermutlich eine beruhigende Wirkung auf Nutzer wie Kulturjournalisten. Falls sich das nicht durchsetzen lässt, müssen wir eben abwarten, bis sich alle an das neue Zeug gewöhnt haben oder ein anderes digitales Schreckgespenst aus dem Schrank kommt.

Die Autorin gehört zu den Mitbegründern der Zentralen Intelligenz Agentur. Zuletzt erschien von ihr "Das neue Lexikon des Unwissens" (gemeinsam mit Aleks Scholz und Kai Schreiber, Rowohlt Berlin 2011).