Der Philosoph David Estlund prägte den Begriff der "Epistokratie", einer Regierung der Wissenden. Estlunds Argumentationskette geht so: Unter der Prämisse, dass politische Antworten wahrheitsbasiert sind, wäre es für die Gesellschaft weise, wenn diejenigen Entscheidungen treffen, die am meisten Wissen haben - die Epistokraten.
Es gibt in der politischen Philosophie eine Tradition epistokratischer Ideen, von Platons Philosophenherrschaft über John Stuart Mill, der das Wahlrecht an den Bildungsstand koppeln und Ungebildeten das Wahlrecht entziehen wollte. In den letzten Jahren hat dieses Denken eine Renaissance erlebt, unter anderem mit dem Buch "Gegen Demokratie" des amerikanischen Politikwissenschaftlers Jason Brennan.
Der Clou ist, dass das alte Lamento "Die Wähler wissen nicht, was sie tun", mit dem diese Expertenherrschaft begründet wird, gerade zur Legitimation für algorithmische Systeme wird. Denn Algorithmen wissen im Zweifelsfall besser als wir selbst, welcher Produktkauf am sinnvollsten, welche medizinische Behandlung geboten ist oder welches Wahlprogramm mit unseren Präferenzen korrespondiert. Also delegiert man Entscheidungskompetenzen - und damit Macht. Mit jeder Google-Suche ermächtigen die Nutzer die dahinterstehenden Programmierer.
Der Soziologe John Danaher entwickelte in Anlehnung an Estlunds Konzept der Epistokratie das theoretische Modell der Algokratie, eine Herrschaft der Algorithmen. In ihr strukturieren soziotechnische Systeme die Entscheidungsprozesse und schränken sie ein. Wie in Estlunds Modell gibt es mit Facebook und Google Akteure, die einen erhöhten epistemischen Zugang zu prozeduralen Verfahren haben.
Nicht nur, indem sie massenhaft Wissen über die Gesellschaft und einzelne Bürger speichern, sondern auch, indem sie Nachrichten mit einem quasistaatlichen Siegel zertifizieren und so erkenntnistheoretische Grundlagen festzurren. Denn ihnen überträgt man, etwa zu differenzieren, was wahr, was Fake News ist. Ex-Google-Chef Eric Schmidt sagte einmal: "Wir wissen, wo du warst. Wir wissen mehr oder weniger, worüber du nachdenkst." Man kann diesen Satz nicht nur als totalitäre Drohung lesen, sondern auch als epistokratischen Machtanspruch.
Googles Computerintelligenzen sind so smart, dass sie die unwissende Nutzerbasis mit gezielten, individualisierten Anreizen lenken können. Wenn dereinst nur noch "gebildete", informierte Softwareagenten am System partizipieren, könnte die Philosophenherrschaft durch eine kybernetische Programmierherrschaft ihr Update erfahren.
Algorithmen sollten für einige Bereiche nicht zugelassen werden
In seinem Werk "Die Macht der Computer und die Ohnmacht der Vernunft" (1977) schreibt der Computerpionier Joseph Weizenbaum: "Der Programmierer ist der Schöpfer von Universen, deren alleiniger Gesetzgeber er selbst ist." Ein Programm zu schreiben, bedeute, einer Welt Gesetze zu geben. Über diese algorithmische Regulierung ist es möglich, die Verfahrensregeln liberaler Demokratien zu überschreiben und eine großtechnische Manipulation ins Werk zu setzen.
Facebook hat 2014 in einem riesigen sozialen Experiment den Newsfeed von fast 700 000 Nutzern manipuliert und jüngst in Ländern wie Serbien und Sri Lanka den Newsfeed in zwei Nachrichtenströme unterteilt, was den Journalisten Stevan Dojcinovic in der New York Times zu dem empörten Aufruf veranlasste: "Hey, Mark Zuckerberg, meine Demokratie ist nicht dein Labor." Doch genau darum geht es: Für Facebook, Google und Co. ist die Demokratie ein Laborversuch, in der man Bürger als Probanden instrumentalisiert und sie unter Ausnutzung psychologischer Schwächen lenkt, ohne das Versuchsdesign publik zu machen.
Die Forderung nach einer Algorithmenkontrolle zielt daher am eigentlichen Problem vorbei: Es geht nicht darum, Algorithmen transparent zu machen, sondern die pseudowissenschaftlichen Modelle generell infrage zu stellen und kritisch zu prüfen, wieweit das Soziale überhaupt mit mathematischen Methoden organisiert werden kann. Der Kulturtheoretiker Felix Stalder warnt, dass die Modelle irgendwann der Welt vorschreiben, wie sie zu sein hat. Die Gefahr liegt also darin, dass mathematische Werte irgendwann kulturelle oder politische definieren. Um das zu verhindern, wäre es ratsam, Algorithmen nicht offenzulegen, sondern für nicht mathematisierbare Prozesse wie die Strafjustiz erst gar nicht zuzulassen.