Es liegt in der Logik des World Wide Web, dass der aus dem Norwegischen importierte Begriff Flugscham just in jenen Tagen einen Höhenflug auf Google erlebte, als man hitzig über das Klima diskutierte. Das belegen Daten von Google Trends. Der politische Begriff machte über ein Medium Karriere, das selbst den Klimawandel anheizt. Zumindest wenn man Forschern glaubt.
Im Jahr 2009 rechnete der Harvard-Physiker Alex Wissner-Gross aus, dass eine Google-Suche sieben Gramm CO₂ verursacht. Das entspricht etwa der Hälfte der Energie, die man für das Aufkochen einer Kanne Tee benötigt (nach Angaben von Google produziert eine typische Suchanfrage lediglich 0,2 Gramm CO₂). Bedenkt man, dass Google pro Tag 3,5 Milliarden Suchanfragen verarbeitet, kommt hier eine beträchtliche Menge klimaschädlicher Gase zusammen. Google war also so etwas wie der Durchlauferhitzer einer moralisch induzierten Selbstgeißelung. Die Tatsache, dass der Begriff der Flugscham durch die heiß laufenden Server auf einer Flughöhe gehalten wurde, verweist nicht nur auf eine Verdopplung der Welt in digitale Strukturen, wie sie der Soziologe Armin Nassehi in seinem Buch "Muster" beschreibt, sondern auch auf eine Art ontologische Externalität der digitalen Gesellschaft, also die Produktion eines Phänomens durch dessen Erforschung. Je mehr man sich auf Twitter oder Facebook über die Klimaleugner echauffiert, desto mehr erhitzt sich das (Diskurs-)Klima und desto mehr wird das Phänomen verstärkt.
Klimaziele:Regierung schwächt Klimaschutzgesetz ab
Schon der ursprüngliche Klimaplan der großen Koalition hat massive Kritik hervorgerufen. Die finale Version bleibt nun offenbar noch hinter dem ersten Entwurf zurück.
Vor wenigen Monaten sorgte eine Studie der University of Massachusetts für Aufsehen, wonach ein Modell für natürliche Sprachverarbeitung so viele CO₂-Emissionen erzeugt wie fünf Autos. Die Forscher rechneten aus, dass beim Training eines einzigen Modells 313 Tonnen CO₂ emittiert werden. Dass Grafikprozessoren für Deep-Learning-Verfahren energieintensiv sind, ist keine neue Erkenntnis. Die Dimension der Emissionen überrascht dann aber doch, zumal es weitaus trainingsintensivere Verfahren gibt, etwa im medizinischen Bereich. In Zeiten, in denen die Politik hitzig über Klimaziele debattiert, wirkt die Studie wie ein Katalysator - gerade weil mit der Entwicklung von KI-Systemen das Versprechen eines effizienteren Ressourcenverbrauchs verbunden ist.
Wer SUVs von der Straße haben will, müsste theoretisch auch KIs mit einem Lernverbot versehen
Die Frage ist: Wie nachhaltig ist Maschinenlernen? Sind Superrechner womöglich die viel größeren Dreckschleudern als SUVs? Ist KI der ultimative Klimakiller? Brauchen künstliche Intelligenzen künftig eine Umweltplakette? Welchen Raum darf das künstliche Habitat im Ökosystem der Erde beanspruchen? Das sind große Themen, gewiss, aber zum ersten Mal wird deutlich, dass es zwischen Wissensproduktion und Ökologie einen Zielkonflikt gibt. Wer SUVs aus ökologischen Gründen von den Straßen verbannen will, müsste eine Superintelligenz mit derselben Logik mit einem Lernverbot belegen, was einigermaßen absurd wäre. Vor einigen Jahrzehnten war es nahezu kosten- und CO₂-neutral, in die Bibliothek zu gehen und ein Buch aus dem Regal zu nehmen. Freilich ist auch die Papierproduktion nicht gerade ökologisch, wenn man bedenkt, dass für Eukalyptus-Plantagen hektarweise Wald gerodet werden und in der Zellstoff- und Papierindustrie massenhaft Chemikalien zum Einsatz kommen. Papier ist aber ein Medium, das Jahrhunderte überdauert. Anders im Digitalen: Wenn man heute einen Klassiker auf Google Books aufruft und den Text durch den KI-Übersetzer jagt, rattern die Großrechner in den Serverfarmen und stoßen jede Menge CO₂ aus. Auch wenn Google und andere Konzerne betonen, dass ihre Serverfarmen mit erneuerbaren Energien betrieben werden, hat Wissen einen ökologischen Preis. Dass das Silicon Valley einer der dreckigsten Orte des Planeten ist, weil die Computerchipproduktion in den Achtzigerjahren das Grundwasser kontaminiert hat, können auch die bunten Leihräder und lauschigen Gärten des Pseudo-Hippie-Campus der Tech-Konzerne nicht verbergen.
Internetaktivitäten hinterlassen einen gewaltigen ökologischen Fußabdruck. Forscher der französischen Denkfabrik "The Shift Project" haben ausgerechnet, dass Streamingdienste und Pornoplattformen im Netz so viel CO₂ freisetzen wie Belgien oder Bangladesch in einem Jahr emittieren. Auch beim Schürfen von Bitcoins werden jede Menge Treibhausgase in die Atmosphäre geblasen. Laut einer Studie des MIT und der TU München produzieren die Bitcoin-Minen jährlich so viel CO₂ wie Jordanien. Anders als im Manchesterkapitalismus sieht man im Datenkapitalismus die rußenden Schornsteine aber nicht.
Der italienische Medientheoretiker Matteo Pasquinelli schreibt in seinem Essay "Der Automaton des Anthropozäns", dass über den gesamten Zeitraum der Industriellen Revolution die verzweigten Entwicklungsstränge von Energie und Information einander beeinflusst und neue Assemblagen hergestellt hätten. Der Dampfregler in Watts Dampfmaschine verwandelte Maschinenimpulse in eine abstrakte (Kreis-)Bewegung. Und die Lochkarten in Jacquards Webstuhl - ein Datenlaufwerk, um die Anweisungen für ein Stoffmuster zu speichern - hätten manuelle Anweisungen in eine abstrakte Form gebracht: Information. Beide Technologien - die Kontrolle der Bewegung und Information - sind für Pasquinelli die Komponenten eines kybernetischen Systems. Pasquinellis entscheidender Punkt ist, dass der Kapitalismus sich durch die Nutzung fossiler Brennstoffe immer weiter ausbreitet, indem er immer größere Datenmengen verarbeitet und sich dabei vom "metabolischen Mehrwert" nährt. Etwas salopp formuliert: Der datengetriebene Kapitalismus braucht nicht nur immer mehr Kohle (im Sinne von Geld und fossilen Brennstoffen), sondern auch immer Daten als Treibstoff, um seine Maschinen am Laufen zu halten. Und er wird bei diesen Verbrennungsprozessen immer gefräßiger. Je mehr Daten Systeme verarbeiten, desto mehr Ressourcen braucht es, und desto mehr Daten müssen generiert und raffiniert werden, um Mehrwert zu generieren. Die Folge: Ein Raubbau an der Natur und der "Ressource" Mensch. Die datenförmigen Emissionen, die dabei entstehen, sind ähnlich schädlich wie jene in der Atmosphäre, weil sie aus ihren Ökosystemen austreten und das gesamte System verunreinigen können.
Kopfrechnen für den Klimaschutz: Es gibt nichts, was so umweltfreundlich ist wie das eigene Denken
Die interessante Conclusio ist nun - und hier beißt sich die Katze erneut in den Schwanz -, dass die Klimawissenschaft nur durch ein globales Netzwerk von Sensoren und Datenzentren möglich ist, also genau jener Netzwerkarchitektur, die nun selbst für die Emissionen verantwortlich sein soll. Das führt zu dem erkenntnistheoretischen Paradoxon, dass man, um die Folgen des Klimawandels in den Modellen abschätzen zu können, immer mehr Maschinen mit Daten füttern und damit klimaschädliche Gase produzieren muss. Etwas zugespitzt: Man muss immer mehr Nebel produzieren, um klare Sicht zu bekommen.
Die Infrastruktur der Klimawissenschaft und die Technosphäre des Anthropozäns sind für Pasquinelli der "späte Zwilling des computational capitalism", indem sich die Gesamtrechnung eher an der Kalkulation des Mehrwerts des Planeten an Energie als an der Kalkulation des Mehrwerts an Arbeit orientiere. Der Medientheoretiker identifiziert eine ökologische und energetische Krise auf der einen und eine durch die digitalen Technologien hervorgerufene Krise der Wertschöpfung auf der anderen Seite, welche die politischen Fronten, die eine Verbindung anstreben, "galvanisiert" hätten.
Pasquinelli schlägt den Begriff der "Karbonsiliziummaschine" vor, um die Logik des "cyberfossilen Kapitalismus" - das Wechselspiel von Energie- und Informationsflüssen - anzuerkennen. Das Konzept hat den Charme, dass es den negativen Output schon in der Begrifflichkeit deutlich macht. Doch womöglich liegt das Problem, anders als die neomarxistische Kritik annimmt, nicht auf einer systemischen, sondern vielmehr auf einer individuellen Ebene. Die Frage ist, ob man für jede kognitive Aufgabe Denkmaschinen einschalten muss - oder nicht besser den eigenen Denkapparat. Die Jeopardy-Version von IBMs Supercomputer Watson benötigte 85 000 Watt, um bei der Rateshow zwei menschliche Spieler zu bezwingen. Zum Vergleich: Das menschliche Gehirn benötigt lediglich 20 Watt.
Es bräuchte neben nachhaltigem Cloud Computing auch eine neue Ökologie der Intelligenz, eine verbrauchsarme Kognition, die nicht bei jeder Frage die digitalen Nannys namens Siri, Alexa und Cortana konsultiert und neben den Rechenzentren auch die radikalisierenden Feedbackschleifen anheizt. Auch Kopfrechnen kann einen Beitrag zum Klimaschutz leisten. Es gibt nichts, was so umweltfreundlich ist wie eigenes Denken.