Die Digitalisierung des Alltags schreitet voran. Algorithmen entscheiden, welche Nachrichten wir lesen, welche Partner wir treffen und vielleicht auch, welche Partei wir wählen. Dass automatisierte Systeme und Blackbox-Algorithmen nicht mit dem Transparenzgebot der bürgerlichen Öffentlichkeit vereinbar sind, scheint gewiss.
Der Rechtswissenschaftler Mario Martini schreibt in der Juristen Zeitung (JZ), dass der "mathematisch-logische Problembewältigungsmodus" mit seinen inhärenten "Arkan-Formeln" Gefahren für gesellschaftliche Grundwerte berge: "Die Rechtmäßigkeit von Entscheidungen kann nur prüfen, wer die Datengrundlage, Handlungsabfolge und Gewichtung der Entscheidungskriterien kennt und versteht."
Die Forderung, Algorithmen nachvollziehbar und verständlich zu machen, ist auch im Politikbetrieb angekommen. Bundeskanzlerin Angela Merkel sagte bei den Münchner Medientagen 2016: "Ich bin der Meinung, dass Algorithmen transparenter sein müssen, sodass interessierten Bürgern auch bewusst wird, was mit ihrem Medienverhalten und dem anderer passiert." Ein Postulat, worauf sich wohl alle politischen Parteien verständigen können.
Die Forderung nach mehr Transparenz operiert jedoch mit der Fiktion, dass man Algorithmen nur offenlegen müsse, um sie einer demokratischen Kontrolle zuführen zu können. Die Google-Entwicklerin Rachel Potvin sagte auf einer Konferenz im Silicon Valley, dass der gesamte Google-Software-Komplex - von der Suchmaschine über Gmail bis zum Kartendienst Maps - aus rund zwei Milliarden Zeilen Programmiercode bestehe. Wie will man diesen Krypto-Komplex dekonstruieren?
Das Problem liegt darin, dass die Intransparenz algorithmischer Prozeduren auch Voraussetzung für das Funktionieren der Informationsökonomie ist. Google behauptet, dass bei einer Offenlegung seines Algorithmus Inhalte willkürlich in die oberen Suchranglisten platziert werden könnten und so die informationelle Architektur kollabieren könne. Das ist ein systemimmanenter Widerspruch, bei dem niemand weiß, wie er aufzulösen wäre.
Es droht eine "Herrschaft der Wissenden"
Selbst wenn man die Vorhersage-Algorithmen offenlegte, mit denen in einigen US-Bundesstaaten die Rückfallwahrscheinlichkeit von Straftätern berechnet wird, trüge dies wenig zur Transparenz der Entscheidungsgründe bei. Nicht einmal Richter mit statistischen Grundkenntnissen dürften sie verstehen. Vor allem ändert es nichts am sozialdeterministischen Modus dieser automatisierten Entscheidungsketten: Wenn der Risikoscore höher als 50 liegt, dann ist Haftverlängerung angezeigt. Wenn unter 50, dann Freiheit. Eine für offene Gesellschaften so zentrale Frage wie die nach Freiheit oder Unfreiheit kann nicht mit Gleichungssystemen "gelöst" werden, die gegen Kritik von außen immun sind.
Das führt zum eigentlichen Problem: Algorithmen etablieren eine Herrschaft der Weisen. Denn das Verständnis über die algorithmischen Prozeduren besitzen allein die Programmierer. Ihr Wissen über spezifische Prozesse der Gesellschaft - Google etwa kann die Nachfrage von Wirtschaftsgütern auf einzelne Regionen heruntergebrochen vorhersagen - gerinnt im Zeitalter der Digitalisierung zu Macht. Es ist eine einfache Gleichung: Je algorithmisierter die Gesellschaft ist, desto weniger weiß sie über die zugrunde liegenden Verfahren und desto weniger Einfluss hat sie.