Die Macht von Google und Facebook:Software frisst die Welt

Die Macht von Google und Facebook: Auch im Cyberspace herrschen Normen - und viele sind von Programmierern gemacht.

Auch im Cyberspace herrschen Normen - und viele sind von Programmierern gemacht.

(Foto: Alessandra Schellnegger)

Ihr Code ist Gesetz: Unser Zusammenleben wird zunehmend von den Programmierern von Facebook und Google bestimmt. Das ist gefährlich für die Demokratie.

Von Adrian Lobe

In seinem Werk "Die Macht der Computer und die Ohnmacht der Vernunft" aus dem Jahr 1977 schrieb der Computerpionier Joseph Weizenbaum: "Der Programmierer ist der Schöpfer von Universen, deren alleiniger Gesetzgeber ist er selbst." Ein Programm zu schreiben bedeute, einer Welt Gesetze zu geben. Der Rechtsprofessor Lawrence Lessig entwickelte diesen Gedanken weiter und formulierte in seinem Essay "Code Is Law" aus dem Jahr 2000, dass Code zum Gesetz werde. Damit meinte er, dass auch im Cyberspace Normen herrschen, dass der Programmcode gesellschaftliche Welten strukturiert.

Mit dem Abstand von über einem Jahrzehnt kann man Lessigs Sentenz durchaus wörtlich nehmen. Internetkonzerne wie Facebook und Google determinieren mit ihren Algorithmen autoritär die Grenzen des Sagbaren und Schicklichen. Autobauer - dazu gehören inzwischen auch Apple und Google - programmieren in ihre autonomen Fahrzeuge Codes ein, die entscheiden, ob das Fahrzeug bei einem Aufprall in die Fußgängergruppe nach links oder in den Radfahrer nach rechts zieht. Damit statuieren sie einen übergesetzlichen Notstand. Und Tech-Konzerne wie Cisco liefern Software für smarte Städte, die mit der Steuerung der Ampelschaltung automatisierte Verwaltungsakte vollziehen.

Wertentscheidungen werden an Algorithmen delegiert

Politik, verstanden nach David Easton als Wertzuteilung, wird immer programmierter. Wer die Macht der Tech-Konzerne kritisiert, sieht sich dem Vorwurf ausgesetzt, hier würde ein Schreckgespenst konstruiert oder eine dunkle Macht beschworen, die real nicht existiert. Google und Co. hätten zwar Macht, so lautet die Abwiegelung der Organisation Algorithm Watch, würden diese aber nicht nutzen, und wenn, dann nur zum Wohl der Nutzer. Google, der gute Hegemon?

Was bei dieser beschwichtigenden Auseinandersetzung mit dem Geschäftsgebaren der Tech-Giganten außer Acht gelassen wird, ist die Tatsache, dass mit der Delegation von Wertentscheidungen an Algorithmen einige Kompetenzen des Staats aus der Hand gegeben werden. Das Hate-Speech-Gesetz, das Justizminister Heiko Maas auf den Weg gebracht hat und das soziale Netzwerkbetreiber dazu zwingt, offenkundig strafbare Inhalte innerhalb von 24 Stunden zu löschen, überantwortet die Definition dessen, was Hass ist, privaten Konzernen, weshalb die Befürchtung groß ist, dass Facebook kosten- und risikominimierend den Maßstab äußerst streng anlegt und Kommentare im Grenzbereich zensiert, um möglichen Strafen zu entgehen.

Die Verteidigung, die Facebook der Regierung entgegenhält, ist ironischerweise auf Linie seiner größten Kritiker. "Der Rechtsstaat darf die eigenen Versäumnisse und die Verantwortung dafür nicht auf private Unternehmen abwälzen. Die Verhinderung und Bekämpfung von Hate-Speech und Falschmeldungen ist eine öffentliche Aufgabe, der sich der Staat nicht entziehen darf." Dass Konzerne wie Facebook diese öffentliche Aufgabe nun wahrnehmen und entgegnen, sie seien dafür eigentlich nicht zuständig, ist teils richtig. Denn aus demokratietheoretischer Sicht ist diese Delegation problematisch.

Nach der Legitimationstheorie muss jedes hoheitliche Handeln an parlamentarische Strukturen oder den Souverän rückgekoppelt sein. Alle Staatsgewalt geht vom Volke aus. Wenn aber nichtgewählte Akteure eine Richterrolle zugewiesen bekommen und so zur privaten Meinungspolizei mutieren, ist die Legitimationskette durchbrochen. Man kann deren Entscheidungen weder nachvollziehen noch anfechten. Algorithmen sind eine Black Box, ein Arkanum, in dem Herrschaft unter Ausschluss der Öffentlichkeit organisiert wird.

Die algorithmische Macht lässt sich nicht in einem "Raum der Rechtfertigungen" (Rainer Forst) verorten - sie diffundiert in den Serverfarmen privater Betreiber. Warum Facebook einen Kommentar löscht, steht unter keinem Begründungszwang. Der US-Rechtswissenschaftler Frank Pasquale, Autor des Buchs "The Black Box Society", vergleicht diese opaken Verfahren mit computerisierten Star Chambers. Die Urteile dieser Gerichtshöfe, die König Eduard II. im 14. Jahrhundert in England einsetzte, waren unanfechtbar, die Verhandlungen geheim.

Die Sammelwut der Internetkonzerne, die immer mehr über das Verhalten der Bürger erfahren, verdichtet sich zu einer Art staatlich geführtem Register. Google und Co. werden jedoch nicht etwa staatsähnlich dadurch, dass sie ein Staatsgebiet oder Staatsvolk aufweisen, sondern zumindest mittelbar Staatsgewalt ausüben, indem sie Herrschaftswissen aggregieren und per Code rechtsverbindliche Normen für Milliarden Nutzer statuieren.

Herrschaft durch die Hintertür

Der Soziologe Steffen Mau beschreibt in seinem neuen Buch "Das Metrische Wir - Über die Quantifizierung des Sozialen", wie Tech-Konzerne durch algorithmische Prozeduren eine Herrschaft durch die Hintertür etablieren: Jeder Bürger bekommt einen Score, eine digitale Kopfnote angehängt, und indem er ständig sein Rating optimiert, verhält er sich systemkonform, ganz im Sinn der Quantifizierungslogik. "Sehr gezielt wird der Schleier des Opaken und des rein Technischen genutzt, um Marktmacht zu sichern und die eigene Entscheidungsfreiheit nicht durch die Öffentlichkeit beschneiden zu lassen." Facebook regiert in unseren Newsfeed hinein, Google determiniert unsere soziale Bonität im Netz. Dass der Europäische Gerichtshof sein Recht auf Vergessen quasi wie ein Auskunftsrecht gegenüber einer Behörde ausgestaltet hat, zeigt, wie quer die Ebenen der Staatlichkeit liegen.

Das Problem liegt darin, dass dieses codeförmige Recht nicht nur völlig intransparent und illegitim ist, sondern gar keine Überschreitung erlaubt. Die Big-Data-Unternehmerin Yvonne Hofstetter warnt in ihrem Buch "Das Ende der Demokratie - Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt" vor den Gefahren, die daraus resultieren, dass im Internet of Everything die Gesellschaft mithilfe von Programmcodes gestaltet wird. "In digitalen Zeiten und unter dem Regime des Internet of Everything müssen wir mit einer 'Zwangspraxis' rechnen: dem Programmcode einer Umgebungsintelligenz, der unser Leben antizipiert und lenkt, indem er forciert, dass wir etwas Bestimmtes tun oder lassen."

Schon bei der Internetnutzung würden kleinste Programme, sogenannte Cookies, bestimmen, ob man Zugang zu Online-Angeboten erhält oder nicht. "Sie sind die Faktizität", so Hofstetter, "die von privaten kommerziellen Einrichtungen außerhalb eines geregelten demokratischen Prozesses geschaffen wurde und der sich die Anwender zwangsläufig beugen." Gegen den Zwang, Cookies zu nutzen, könne man nicht verstoßen - gegen die Normen einer demokratisch formalisierten Rechtsordnung dagegen schon.

Gerade diese Möglichkeit, gegen positives Recht zu verstoßen, mache eine freie Gesellschaft aus. Hofstetters Befürchtung ist, dass ein computergestützter Autoritarismus entsteht, in dem Maschinen Programmiervorschriften für Maschinen schreiben.

Der Code exekutiert sich selbst

Man muss feststellen, dass mit Programmiercodes nicht nur technische Dispositive entstehen, die - wie im Falle von Volkswagens Schummelsoftware - staatliche Vorgaben unterminieren, sondern auch rechtliche Regelungsregime. Google oder Facebook müssen nicht in langen Ausschuss- und Plenumssitzungen Gesetze formulieren, es genügt eine Modifikation des Algorithmus, um missliebige Bilder zu entfernen. Der Code braucht keine Umsetzung - er exekutiert sich selbst. Es ist wie in einem autoritären Regime: Algorithmen machen kurzen Prozess.

Die Frage ist, ob der demokratische Rechtsstaat diese zunehmende Machtverschiebung hinnehmen kann oder ob er seine Instrumente "updaten" muss. Die betrügerische Software, die Volkswagen in seinen Codes versteckt hat und die erst durch die Arbeit von Wissenschaftlern aufgedeckt werden konnte, hat einmal mehr die regulatorischen Probleme der Politik vor Augen geführt.

Vielleicht ist es ein Weckruf: Die Gesellschaft ist derartig computerisiert, dass nur noch Codes als Korrektiv infrage kommen. Der Publizist Frank Schirrmacher, der seiner Zeit weit voraus war, schrieb 2000: "Europa soll nicht nur die Software von Ich-Krisen und Ich-Verlusten, von Verzweiflung und abendländischer Melancholie liefern. Wir sollten an dem Code, der hier geschrieben wird, mitschreiben." Europa hat diese Chance weitgehend vertan.

Das deutsch-französische Suchmaschinenprojekt Quaero, das eine europäische Antwort auf Google hätte werden sollen und so etwas wie eine digitale Erinnerungsgemeinschaft hätte institutionalisieren können, scheiterte 2006 an der Finanzierung. Die Spielregeln für das World Wide Web schreibt heute weitestgehend eine kleine Programmiererelite im Silicon Valley. Ob ein Foto von Gustave Courbets Gemälde "Der Ursprung der Welt" oder Nick Uts pulitzerpreisgekrönte Fotografie eines nackten Mädchens, das vor einem Napalm-Angriff im Vietnamkrieg flieht, auf der Pinnwand gezeigt wird, hängt vom Goodwill der Softwareingenieure ab. Die Kriterien sind äußerst arbiträr.

"Software frisst die Welt", konstatierte der Wagniskapitalgeber Marc Andreessen 2011 in einem Beitrag für das Wall Street Journal. Damit meinte er zunächst die Übernahmen gefräßiger Tech-Konzerne, die sich ein Unternehmen nach dem anderen einverleibten, doch darunter kann durchaus auch das politische System verstanden werden. Die Software frisst das Politische insofern, als sie politische Debatten in apolitische Programmierbefehle umcodiert. Was Hate Speech oder Terrorismus ist, ist in der Logik der Programmierer eine rein mathematische Frage. Gleichwohl: Wenn der Code zum Gesetz wird, wie Lawrence Lessig formulierte, wird der demokratische legitimierte Gesetzgeber zur bloßen Leerformel.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: