Digitales Geistesleben:Vorgekautes Denken

Digitales Geistesleben: Nichts ist bequemer, als ein Industrieprodukt – der Journalist Franklin Foer vergleicht die Digitalisierung des Geisteslebens mit dem Siegeszug der Fertiggerichte. Konsumenten werden dabei entmündigt.

Nichts ist bequemer, als ein Industrieprodukt – der Journalist Franklin Foer vergleicht die Digitalisierung des Geisteslebens mit dem Siegeszug der Fertiggerichte. Konsumenten werden dabei entmündigt.

(Foto: Chris Ratcliffe/Bloomberg)

Die Macht der allgemeingültigen Antworten: Wie digitale Konzerne das Geistesleben der Gegenwart aushöhlen und das Zeitalter der Aufklärung infrage stellen.

Von Adrian Lobe

Könige, Präsidenten und Wahlen lehnen wir ab. Wir glauben an groben Konsens und laufenden Code", verkündete der Informatiker David Clark 1992. Damit war ein libertäres Staatsverständnis umschrieben, welches das Funktionieren eines Gemeinwesens nicht mehr von Institutionen, sondern lediglich vom Programmcode abhängig macht. Die Computerpioniere waren von der Idee beseelt, dass sich die Ordnung eines Gemeinwesens durch informatisierte Prozesse herstellen lässt. Gleichzeitig sollten diese Prozesse aber zu neuen politischen und geistigen Freiheiten führen.

Mit dem Internet war ähnlich wie mit dem Radio die Hoffnung verbunden, dass die Menschheit ein größeres interkulturelles Verständnis entwickelt, Bildung für alle zugänglich wird und das Internet zu einem Katalysator für eine weltweite Demokratisierung würde. Die Datenrevolution würde Staaten in eine neue Rechenschaftspflicht zwingen und "eine neue Ära des kritischen Denkens einläuten", schrieben der Executive Chairman der Google-Holding Alphapet Eric Schmidt und der Politologe aus dem US-Außenministerium Jared Cohen 2013 in ihrem Buch "Die Vernetzung der Welt". Doch solche Ideale haben sich inzwischen ins Gegenteil gekehrt.

Wenn Algorithmen politische Wertentscheidungen treffen, schaffen sie eine Algokratie

Der Journalist Franklin Foer, Redakteur bei der US-Zeitschrift The Atlantic, kritisiert in seinem gerade erschienenen Buch "World Without Mind: The Existential Threat of Big Tech" (Eine Welt ohne Geist: die existenzielle Bedrohung der großen Technologien, auf englisch bei Penguin Press), dass die voranschreitende Informationstechnologie zu einer Homogenisierung und Automatisierung des sozialen, politischen und intellektuellen Lebens führe und Tech-Konzerne liberale Traditionen des Rechtsstaats wie die Privatsphäre oder geistiges Eigentum zertrampeln. "Unsere intellektuellen Gewohnheiten werden von den dominanten Firmen verrührt", konstatiert Foer. "So wie Nabisco und Kraft ändern wollten, wie wir essen und was wir essen, streben Google Amazon, Facebook und Google danach, wie wir lesen und was wir lesen."

Für Foer sind die Tech-Konzerne "monopolists of mind", Monopolisten des Geistes, die das (Herrschafts-)Wissen unter sich aufgeteilt hätten. Algorithmen käuen uns das Wissen vor. Das ist so bequem wie Fertiggerichte zu verzehren. Doch letztlich entmündigt solch vorgefertigte Industrieware die Konsumenten. Algorithmen seien gerade deshalb programmiert worden, um den Menschen aus dem Erkenntnisprozess zu entfernen, schreibt Foer. "Der Algorithmus wurde entwickelt, um das Denken zu automatisieren, um schwierige Entscheidungen aus den Händen des Menschen zu nehmen, um hitzige Debatten zu regulieren."

Klammheimlich haben sich in den letzten Jahren algorithmische Entscheidungssysteme in unseren Alltag geschlichen, die als zentrale Steuerungsinstanzen fungieren. Sie entscheiden autoritativ, ob wir bei der Bank einen Kredit bekommen, welche Informationen wir sehen und, wie in einigen US-Bundesstaaten, wie hoch die Haftstrafe ausfällt. Die technischen Systeme entscheiden über Freiheit oder Unfreiheit und mithin über ureigenste Rechte des Menschen - obwohl sie dazu gar nicht legitimiert sind.

Der Stanford-Soziologe A. Aneesh prägte den Begriff der "Algokratie", eine Herrschaftsform, bei der Programmcodes eine politische Steuerung implementieren. Durch die Abtretung von Wertentscheidungen an soziotechnische Systeme (etwa in der Frage, was unter Terrorismus subsumiert wird oder wo die Grenzen der Meinungsfreiheit liegen) wächst Konzernen wie Google oder Facebook eine politische Macht zu. Mit jeder Modifikation des Newsfeed-Algorithmus wird Herrschaft ausgeübt. Facebook-Chef Mark Zuckerberg sagte einmal: "In vielerlei Hinsicht ist Facebook mehr eine Regierung als ein traditionelles Unternehmen. Wir haben eine große Community von Leuten, und mehr als jedes andere Technologieunternehmen legen wir die Policies fest."

Der Angriff auf die offene Gesellschaft besteht nicht allein darin, dass die große Masse aus politischen Entscheidungsprozessen ausgeschlossen wird, sondern, dass das Geschäftsmodell des Silicon Valley das Erbe der Aufklärung aufs Spiel setzt: das vernunftgeleitete, für jeden nachvollziehbare Überprüfen und Hinterfragen von Quellen. Die algorithmischen Prozeduren, die unter Ausschluss der Öffentlichkeit stattfinden, sind eine Rückkehr zu jenen Praktiken, wie sie bereits in der mittelalterlichen Geistlichkeit verbreitet waren und leisten einer Refeudalisierung der Gesellschaft Vorschub.

Der Nutzer hat praktisch keine andere Wahl, als den Lehnsherren von Google, Facebook und Co. beim Betreten ihrer Territorien seine Daten zur Verfügung zu stellen. Algorithmen sind die neuen Autoritäten im Dataismus - Türhüter zum Wissen. Wie die Kirche im Mittelalter legen Tech-Konzerne heute das datenzentrische Weltbild fest, das erkenntnistheoretisch genauso verengt ist die das heliozentrische Weltbild des Klerus und in seiner Theorie zahlreiche blinde Flecken aufweist.

Der amerikanische Philosoph Michael Patrick Lynch beschreibt in seinem Buch "The Internet of Us: Knowing More and Understanding Less in the Age of Big Data", wie wir Fakten durch eine Google-Suche kaum noch entdecken, sondern nur noch down- und uploaden. Es ist ein rein mechanischer und kein reflexiver Prozess mehr. Was uns Google als Faktum präsentiert, ist womöglich keines, doch die Nutzer haben die Funktion Suchmaschine bereits dermaßen verinnerlicht, dass sie Wissen und Googeln gleichsetzen. Google suggeriert eine Evidenz, die es in Wahrheit nicht hat. "Google-Knowing" nennt Lynch dieses Halbwissen, bei dem Nutzer Informationen nicht mehr auf ihre Herkunft überprüfen, sondern Suchmaschinentreffer für bare Münze nehmen. Der Konzern hat damit dem postfaktischen Zeitgeist den Boden bereitet.

Das Problem ist, dass die Undurchsichtigkeit algorithmischer Prozeduren einer der Grundvoraussetzungen für das Funktionieren der Informationsökonomie ist. Google beruft sich auf die Schutzbehauptung, dass bei einer Offenlegung seines Algorithmus Spammer ihre Splitter in die oberen Suchränge platzieren könnten und die informationelle Architektur kollabieren würde. Es ist ein systemimmanenter Widerspruch, bei dem niemand weiß, wie er aufzulösen wäre. Oder, um mit dem Staatsrechtler Ernst-Wolfgang Böckenförde zu sprechen: Die Netzgesellschaft lebt von Voraussetzungen, die sie selbst nicht schaffen kann.

Bezeichnend ist der Satz, den der US-Wissenschaftshistoriker George Dyson, Autor des Buchs "Turings Kathedrale", bei einer Rede im Google-Hauptquartier formulierte: "Wir scannen nicht all die Bücher, damit sie von Menschen gelesen werden. Wir scannen die Bücher, damit sie von künstlicher Intelligenz gelesen werden."

Das heißt im Klartext: Der Wissenskanon, den die Tech-Giganten unter anderem durch die urheberrechtlich bedenkliche Digitalisierung von Büchern monopolisiert haben, ist nicht mehr ein kultureller Wert an sich, ein Bildungsgut, das man den Menschen angedeihen lässt, sondern lediglich ein Pool an Trainingsdaten für Maschinen.

Google-Entwickler Ray Kurzweil hatte einen Traum - man muss gar keine Fragen mehr stellen

Darin lässt sich auch eine normative Setzung ablesen: Nicht menschliche, sondern künstliche Intelligenz soll intelligenter werden. Das ist der Glaubenssatz, dem sich alle Technologiekonzerne verschrieben haben. Suchanfragen, Sprachkommandos, unsere Sprachkultur - sie sind nur das Futter einer Datenmaschinerie.

Der langjährige Google-Chef Eric Schmidt formulierte 2005 das Ziel, für jede Suchanfrage nur noch einen Treffer anzuzeigen. "Wir sollten in der Lage sein, sofort die richtige Antwort zu geben. Wir sollten wissen, was jemand meint." Hinter dem kognitiven Kapitalismus, der Gedanken und Gefühle zu Geld macht, scheint die Dystopie einer Gedankenpolizei auf.

Google-Chefentwickler Ray Kurzweil entwarf die Utopie einer Suchmaschine, die wie ein "kybernetischer Freund" und Helfer operiere. "Ich strebe an, dass in ein paar Jahren die Mehrheit der Suchanfragen beantwortet werden können, ohne dass man danach fragt", sagte er. Man muss gar nicht mehr fragen, und man soll auch keine kritischen Fragen stellen ("Don't be evil") - die Daten sind aussagekräftig genug.

Die Automatisierung des Denkens, die zwischen jeder Programmierzeile zu lesen ist, ist nicht nur ein antiaufklärerisches Vorhaben, sondern auch ein Einfallstor für Autoritarismus. Wo Antworten schon a priori feststehen, ist man von absoluten Wahrheiten nicht weit entfernt. Wenn Schmidt behauptet, Mehrfachantworten seien ein "Bug", also ein Fehler im System, ist das eine Absage an jede Form von Meinungspluralismus. Im Google-Land besitzt nur eine Antwort Gültigkeit.

Es bleibt die Frage, ob der neue Autoritarismus auf der Welt durch Algorithmen, die im Kern ein autoritärer Modus sind, verstärkt wird. Fakt ist aber, dass die antipolitischen Unterströme aus dem Silicon Valley und die Aushöhlung des kritischen, reflektierenden Denkens autoritären Bewegungen in die Hände spielen.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: