Philosophie:Die Gesellschaft der Metadaten

Hamina Google Data Center

Das Bedrohliche an dieser algorithmischen Regulierung ist nicht nur die Subtilität der Steuerung, die sich irgendwo in den dunklen Maschinenräumen privater Konzerne abspielt. (im Bild ein Google-Datenzentrum im finnischen Hamina)

(Foto: dpa)

Heute geht es nicht mehr darum, die Position eines Individuums zu bestimmen, sondern die allgemeine Tendenz der Masse zu erkennen. Dadurch wird der Mensch total beherrschbar.

Von Adrian Lobe

Jeden Tag verarbeitet Google 3,5 Milliarden Suchanfragen. Die Nutzer googeln alles: Lebensläufe, Krankheiten, sexuelle Vorlieben, Tatpläne. Und geben damit mehr von sich preis, als ihnen lieb ist. Aus den aggregierten Daten lassen sich in Echtzeit Rückschlüsse über den Gefühlshaushalt der Gesellschaft ziehen. Wie ist die Stimmung? Wie ist die Kauflaune? Welches Produkt wird in dieser Sekunde in welcher Region nachgefragt? Wo wird häufig nach Krediten gesucht? Suchanfragen sind ein konjunktureller Gradmesser. Zentralbanken greifen schon seit Längerem auf Google-Daten zurück und speisen die Daten in ihre makroökonomischen Modelle ein, um das Konsumentenverhalten zu prognostizieren.

Die Suchmaschine ist nicht nur ein Seismograf, der die Zuckungen und Regungen der digitalen Gesellschaft erfasst, sondern auch ein Werkzeug, das Präferenzen erzeugt. Wenn man aufgrund einer Stauprognose von Google Maps seine Route ändert, ändert man nicht nur das eigene Verhalten, sondern auch das anderer Verkehrsteilnehmer, indem man mit seiner Selbstverdatung die Parameter der Simulation verändert. Google kann anhand der im Smartphone integrierten Beschleunigungssensoren erkennen, ob jemand gerade mit dem Rad, dem Auto oder zu Fuß unterwegs ist. Wer bei der Google-Suche nach "Merkel" die algorithmisch generierte Suchergänzung "am Ende" anklickt, erhöht die Wahrscheinlichkeit, dass der Vervollständigungsmechanismus dies auch bei anderen anzeigt. Die mathematischen Modelle produzieren eine neue Wirklichkeit. In einer kontinuierlichen Feedbackschleife wird das Verhalten von Millionen Nutzern konditioniert. Und kontrolliert.

Landschaften des Wissens

Der italienische Philosoph und Medientheoretiker Matteo Pasquinelli, der an der HfG Karlsruhe lehrt, hat die These aufgestellt, dass mit der Datenexplosion eine neue Steuerungsform möglich werde: eine "Gesellschaft der Metadaten". Mit Metadaten könnten neue Formen der biopolitischen Steuerung zur Kontrolle der Massen und Verhaltenssteuerung etabliert werden, etwa Online-Aktivitäten in Social- Media-Kanälen oder Passagierströme in öffentlichen Verkehrsmitteln. "Daten", schreibt Pasquinelli, "sind nicht Nummern, sondern Diagramme von Oberflächen, Landschaften des Wissens", die eine neue Sicht auf die Welt und die Gesellschaft eröffnen: "die algorithmische Vision". Die Akkumulation der Zahlen durch die Informationsgesellschaft habe einen Punkt erreicht, wo Zahlen zu einem Raum werden und eine neue Topologie kreierten. Die Gesellschaft der Metadaten könne als Ausweitung der kybernetischen Kontrollgesellschaft verstanden werden, schreibt Pasquinelli: "Heute geht es nicht mehr darum, die Position eines Individuums zu bestimmen (die Daten), sondern die allgemeine Tendenz der Masse zu erkennen (die Metadaten)."

Das Problem sieht Pasquinelli nicht darin, dass Individuen wie bei der Stasi ausgeleuchtet, sondern dass sie vermasst werden und die Gesellschaft als Ganzes berechenbar und kontrollierbar werde. Als Beispiel nennt er das NSA-Massenüberwachungsprogramm Skynet, bei dem mithilfe von Mobilfunkdaten in der Grenzregion zwischen Afghanistan und Pakistan Terroristen identifiziert wurden. Das Programm puzzelte die täglichen Routinen von 55 Millionen Mobilfunknutzern zusammen: Wer verreist mit wem? Wer teilt Kontakte? Wer bleibt über Nacht bei Freunden? Ein Klassifikationsalgorithmus analysierte die Metadaten und errechnete für jeden Nutzer einen Terror-Score. Der ehemalige NSA- und CIA-Chef Michael Hayden brüstete sich mit der Aussage: "Wir töten Menschen auf Basis von Metadaten." Ein Satz, der in seiner kühlen Menschenverachtung schaudern lässt. Es gibt gar keine Zielperson mehr - das militärische Target ist kein Subjekt, sondern nur noch die Summe seiner Metadaten. Das "algorithmische Auge" sieht ja keinen Terroristen, sondern lediglich eine verdächtige Verbindung im Dunst der Datenwolken. In brutaler Konsequenz bedeutet das: Wer suspekte Links oder Muster produziert, wird liquidiert.

Auf Basis der Skynet-Berechnungen wurden Tausende Menschen bei Drohnenschlägen getötet. Wie viele unschuldige Zivilisten ums Leben kamen, ist unklar. Die Methodik ist umstritten, weil der Machine-Learning-Algorithmus nur aus bereits identifizierten Terroristen lernte und diese Ergebnisse blind reproduzierte. Das heißt: Wer dieselben Trajektorien, sprich Metadaten wie ein Terrorist hatte, war plötzlich selbst einer. Die Frage ist, wie scharf die algorithmische Vision gestellt wird. "Wozu könnte es führen, wenn der Algorithmus von Google Trends auf soziale Fragen, politische Kundgebungen, Streiks oder den Aufruhr in den Peripherien der europäischen Metropolen angewandt wird?", fragt Pasquinelli.

Die Datengurus hegen eine Obsession, menschliche Interaktionen wie das Wettergeschehen vorauszuberechnen. Die Adepten der Denkschule "Social Physics", welche der Datenwissenschaftler Alex Pentland begründet hat, blicken auf die Welt wie durch ein Hochleistungsmikroskop: Die Gesellschaft besteht aus Atomen, um deren Kerne Individuen wie Elektronen auf festen Umlaufbahnen kreisen. Facebook-Chef Mark Zuckerberg sagte, es existiere ein "fundamentales mathematisches Gesetz, das sozialen Beziehungen zugrunde liegt". Liebe? Job? Verbrechen? Alles determiniert, alles berechenbar! Als wäre die Gesellschaft ein lineares Gleichungssystem, in dem sich Variablen auflösen lassen.

Baidu weiß, wo sich demnächst eine Menschenansammlung bildet

In Isaac Asimovs Science-Fiction-Roman "Foundation" entwickelt der Mathematiker Hari Seldon die fiktive Wissenschaft der Psychohistorik, eine Großtheorie, die Elemente der Psychologie, Mathematik und Statistik vereint. Die Psychohistorik modelliert die Gesellschaft nach der physikalischen Chemie: Sie geht davon aus, dass sich das Individuum wie ein Gasmolekül verhält. Analog zu den Eigenschaften eines Gasmoleküls lassen sich die zuweilen chaotischen Bewegungen eines Individuums nicht berechnen, dafür aber mithilfe statistischer Gesetzmäßigkeiten der allgemeine Verlauf und "Aggregatszustand" der Gesellschaft.

In dem Roman sagt Imperator Cleon I. zu seinem Mathematiker: "Sie brauchen nicht vorherzusagen. Wählen Sie nur eine Zukunft aus - eine gute Zukunft, eine nützliche Zukunft -, und machen Sie die Art von Vorhersagen, die die menschlichen Gefühle und Reaktionen so ändern, dass die Zukunft, die Sie vorhergesagt haben, auch herbeigeführt wird." Auch wenn Seldon diesen Weltenplan als "praktisch nicht durchführbar" verwirft, beschreibt dies trefflich die Technik des Social Engineering, bei die Realität (und Sozialität) konstruiert werden und Individuen auf ihre physikalischen Eigenschaften reduziert werden. Darin manifestiert sich eine neue Machttechnik: Die Menge wird nicht mehr beherrscht, sondern berechnet und, das ist die dialektische Pointe, in ihrer Berechenbarkeit total beherrschbar. Wenn man weiß, wohin sich die Gesellschaft bewegen wird, kann man Gruppen durch Manipulationstechniken wie Nudging unter Ausnutzung psychologischer Schwächen in die gewünschte Richtung lenken.

Kürzlich tauchte ein internes Google-Video auf, in dem das behavioristische Konzept eines "Selfish Ledger" präsentiert wurde, eine Art Zentralregister, worauf sämtliche Nutzerdaten gespeichert sind: Surfverhalten, Gewicht, Gesundheitszustand. Anhand der Datenpunkte schlägt Google individualisierte Handlungsoptionen vor: sich gesünder ernähren, die Umwelt schützen oder lokale Geschäfte unterstützen. Analog zur DNA-Sequenzierung könne man "eine Verhaltenssequenzierung" durchführen und Verhaltensmuster erkennen. So wie sich DNA verändern lässt, ließe sich auch das Verhalten modifizieren. Am Ende dieser Evolution stünde ein perfekt programmierter Mensch, der von KI-Systemen kontrolliert wird.

Techno-autoritärer Politikmodus

Das Bedrohliche an dieser algorithmischen Regulierung ist nicht nur die Subtilität der Steuerung, die sich irgendwo in den opaken Maschinenräumen privater Konzerne abspielt, sondern, dass ein techno-autoritärer Politikmodus installiert wird und die Masse als polit-physikalische Größe wiederkehrt. Nur was Datenmasse hat, hat im politischen Diskurs Gewicht. Die Technikvisionäre denken Politik von der Kybernetik her: Es geht darum, "Störungen" zu vermeiden und das System im Gleichgewicht zu halten. Der chinesische Suchmaschinenriese Baidu hat einen Algorithmus entwickelt, der anhand von Sucheingaben bis zu drei Stunden im Voraus vorhersagen kann, wo sich eine Menschenansammlung ("kritische Masse") bilden wird.

Hier wird der Programmcode zu einer präemptiven Politikvermeidung. Das Versprechen von Politik ist, dass sie zukunftsoffen und gestaltbar ist. Wenn aber das Verhalten von Individuen, Gruppen und der Gesellschaft berechenbar wird, wird politische Willensbildung Makulatur. Wo alles determiniert ist, ist nichts mehr veränderbar.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: