Süddeutsche Zeitung

Militär:Wie künstliche Intelligenz den Krieg verändert

Selbstlernende Algorithmen können Waffensysteme und damit das globale Machtgefüge verändern. Doch der Technologie wohnt ein Dilemma inne.

Am 9. März 1949 präsentierte Claude E. Shannon bei der Jahrestagung des Instituts der Radioingenieure in New York ein Papier zur Programmierung eines Computers zum Schachspielen. Zwar habe dies wohl keine praktische Bedeutung, aber die Frage sei theoretisch von Interesse und könne dazu beitragen, ähnlich gelagerte Probleme von größerer Wichtigkeit zu lösen, schrieb Shannon, der als "Vater des Informationszeitalters" bekannt wurde. Er sprach noch von "mechanisiertem Denken", das etwa dazu beitragen könnte, Maschinen zu entwickeln, "um strategische Entscheidungen in vereinfachten militärischen Operationen zu treffen".

Computer werden heute zur Planung und Ausführung von Militäroperationen genutzt, bei der Analyse von Aufklärungsdaten wie beim Waffenrechner eines Panzers. Shannons Prognose erwies sich aber als zu optimistisch: Strategische und auch taktische Entscheidungen treffen beim Militär bis heute weitgehend Menschen.

Künstliche Intelligenz gilt als vierte industrielle Revolution

Konsterniert stellte der damalige Google-Chef Eric Schmidt 2016 beim Besuch der Operationszentrale der US-Luftwaffe auf dem Stützpunkt al-Udeid in Katar fest, dass Soldaten die Luftbetankung Dutzender Kampfjets von Hand mit Markern, Magneten und farbigen Plastikkarten an einem Whiteboard planten. Von einer übergreifenden, systematischen Nutzung der neuen Möglichkeiten, die rapide wachsende Rechenleistung oder maschinelles Lernen bieten, sind auch die Hightech-Streitkräfte der USA weit entfernt.

Künstliche Intelligenz (KI), wie das mechanisierte Denken seit 1955 genannt wird, gilt heute als vierte industrielle Revolution. Sie verändert viele Wirtschafts- und Lebensbereiche noch einmal grundlegend. Auch die militärischen Machtverhältnisse und die geopolitische Konstellation wird sie nicht unberührt lassen.

China verkündete im Juli 2017 einen staatlichen Entwicklungsplan für künstliche Intelligenz einer neuen Generation, in dem es heißt, die "führenden Industrieländer betrachten die Entwicklung künstlicher Intelligenz als wichtige Strategie zur Steigerung der nationalen Wettbewerbsfähigkeit und zum Schutz der nationalen Sicherheit". Als Ziel setzt sich Peking, bis 2030 die globale Führung bei der Entwicklung künstlicher Intelligenz zu erringen.

Die USA könnten ihren Vorsprung in wenigen Jahren verspielt haben

Russlands Präsident Wladimir Putin sagte im September 2017 vor Schülern: "Künstliche Intelligenz ist die Zukunft, nicht nur für Russland, sondern für die gesamte Menschheit." Sie berge kolossale Möglichkeiten, aber auch Bedrohungen, die schwierig vorherzusagen seien. Eines jedoch prophezeite er: "Wer in der Sphäre der künstlichen Intelligenz führend ist, der wird der Herrscher der Welt sein."

Noch sind das die USA - aber der Chor der Warner wird lauter, die fürchten, dass das immer noch mächtigste Land der Welt seinen Vorsprung in wenigen Jahren verspielen könnte. Der frühere Verteidigungsminister Jim Mattis schrieb im Mai 2018 einen Brandbrief an Präsident Donald Trump, in dem er eine nationale KI-Strategie forderte. Er legte einen Artikel von Henry Kissinger bei, der mit den Worten schließt: "Wenn wir diese Anstrengungen nicht bald beginnen, werden wir bald feststellen, dass wir zu spät begonnen haben." Entwicklungen bezüglich künstlicher Intelligenz könnten "nicht losgelöst von der aufkommenden strategischen Konkurrenz mit China und der breiteren geopolitischen Landschaft" betrachtet werden, warnte eine US-Regierungskommission. Von einem neuen Wettrüsten zwischen den USA und China ist oft die Rede.

Allerdings ist künstliche Intelligenz kein Waffensystem wie eine Rakete und auch nicht auf militärische Nutzung beschränkt, wie etwa die Tarnkappen-Technologie. Vielmehr handelt es sich um eine Enabling-Technologie wie den Verbrennungsmotor für ein breites Spektrum ziviler und militärischer Anwendungen - aber um eine, die zu gravierenden Veränderungen der militärischen Fähigkeiten führen kann und somit zu Verschiebungen der Machtbalance. Die öffentliche Debatte fokussiert sich auf autonome Waffensysteme, von Kritikern "Killerroboter" genannt. Denkbar ist jedoch viel mehr - von der Manipulation der öffentlichen Meinung über die Festlegung von Wartungsintervallen von Waffen bis zur Bilderkennung durch Sensoren oder der Koordinierung von Drohnenschwärmen.

Im Golfkrieg 1990 zeigte sich, dass ein Informationsvorsprung auf dem Schlachtfeld mindestens ebenso wertvoll ist wie überlegene Feuerkraft und zahlenmäßige Überlegenheit. Computer und elektronische Sensoren erlaubten es dem US-Militär, binnen Wochen die Streitmacht Saddam Husseins mit mehr als 4500 Panzern zu zerstören. Wenige Jahre später entwickelte das US-Militär die Doktrin der netzwerkzentrierten Kriegsführung, die Informationsüberlegenheit ins Zentrum stellte.

Was heute den Unterschied macht

Was heute den Unterschied macht, ist die exponentiell gewachsene Rechenleistung. Sie ermöglicht es, bisher unvorstellbare Datenmengen zu verarbeiten - und damit Algorithmen zu füttern, die nicht nur eine analytische Auswertung liefern, sondern aus den Daten lernen. Zudem ist die Verfügbarkeit von Daten so groß wie nie, was schon mit der Menge an Informationen beginnt, die Menschen heute im Internet preisgeben. Bessere Daten und Rechenleistung ermöglichen bessere Prognosen und damit bessere Entscheidungen. Künstliche Intelligenz könnte theoretisch politische oder militärische Handlungsempfehlungen liefern - oder sogar solche Entscheidungen eigenständig übernehmen. An diese Vorstellung knüpfen Dystopien wie die der "Terminator"-Filme an.

Die Verfügbarkeit neuer Technologien allein garantiert aber noch keine militärische Übermacht. Entscheidend ist, wie gut sich eine Armee anpassen kann, wie gut sie die Technologie integriert in ihre Strategie, ihre Taktik, ihre Ausbildung. Großbritannien erfand den Flugzeugträger, allerdings setzte die Königliche Marine nach dem Ersten Weltkrieg weiter auf Schlachtschiffe. Bis zum Zweiten Weltkrieg hatten die Briten ihren Vorsprung auf Japan und die USA verloren. Diese sind heute die einzige Macht, die eine Flotte von Trägerverbänden betreibt, maßgeblich für die Fähigkeit, weltweit militärische Macht projizieren zu können.

Bei der künstlichen Intelligenz sind weder Rüstungskonzerne noch militärische Forschungslabore die Innovationstreiber. Sondern Privatfirmen, die kommerzielle Nutzungen entwickeln. Ihr Verhältnis zum Militär ist unterschiedlich: Manche Konzerne und viele Forscher in den USA haben sich Selbstbeschränkungen unterworfen, sich nicht an der Entwicklung der militärischen Nutzung künstlicher Intelligenz zu beteiligen. Andere arbeiten mit dem Pentagon zusammen. Chinesischen Firmen hat Peking hingegen die "militärisch-zivile Fusion" verordnet, die Technologien hervorbringen soll, über die kein anderes Land verfügt. In Russland ist die zivile IT-Industrie kleiner, wichtigster Akteur bei der Entwicklung künstlicher Intelligenz ist dort die zumeist staatliche Rüstungsindustrie.

Tech-Pioniere warnen vor dem Horrorszenario des automatisch ausgelösten Dritten Weltkriegs

Die drei Staaten unterscheiden sich auch in ihrer Ambition: China verfolgt den radikalsten Ansatz und zielt darauf, eine neue Generation künstlicher Intelligenz zu entwickeln als "starke Unterstützung für Befehls- und Entscheidungsfindung, militärische Ableitungen, Rüstungsgüter und andere Anwendungen". Damit strebt China in Teilen nach generalisierter oder starker künstlicher Intelligenz, die Aufgaben erfüllen könnte, die bisher nur Menschen zu leisten vermögen - etwa die komplexe Lage auf einem Schlachtfeld einzuschätzen und daraus Befehle abzuleiten. Supercomputer, die von der Zahl der ausgeführten Operationen dem menschlichen Gehirn überlegen sind, besitzt China bereits. Das Problem ist die Komplexität der Software, der Algorithmen.

Die USA verfolgen einen zurückhaltenderen, pragmatischen Ansatz, der davon ausgeht, dass die Entwicklung menschengleicher Maschinenintelligenz Jahrzehnte in Anspruch nehmen wird. Sie setzen auf spezialisierte oder schwache/enge künstliche Intelligenz, die auf konkrete Anwendungsprobleme zugeschnitten ist. Derartige Algorithmen können sich selbst optimieren, aber nur für für begrenzte Bereiche Handlungsempfehlungen auf Basis einer Wissensdatenbank ableiten.

In diesem Feld könnten sich fortschrittliche Mittelmächte wie Kanada, Australien, Frankreich, Israel, Südkorea und selbst kleine Staaten wie Singapur herausragende militärische Fähigkeiten verschaffen - womöglich aber auch Länder wie Iran.

Russland will mit künstlicher Intelligenz einfach bessere Waffen bauen

Einen dritten Weg geht derzeit noch Russland. Moskau strebt weniger an, mit künstlicher Intelligenz die Geschwindigkeit und Qualität der Entscheidungen der militärischen Führung zu verbessern. Es will einfach bessere Waffen bauen. Beispiele sind selbststeuernde Raketen, die Luftabwehrsysteme wirkungslos machen sollen oder die Unterwasserdrohne Poseidon, die Atomsprengköpfe unbemerkt an die US-Küsten tragen können soll.

Weil sich der militärische Wert neuer Entwicklungen bei der künstlichen Intelligenz kaum abschätzen lässt, aber alle Akteure auf den entscheidenden Technologiesprung hoffen, ist es unwahrscheinlich, dass sie sich auf Beschränkungen der militärischen Nutzung einlassen, nicht einmal bei eng umgrenzten Feldern wie autonomen Waffensystemen. Zugleich könnten Transparenz und Offenheit bei Forschung und Entwicklung dabei helfen, das Horrorszenario zu verhindern, vor dem Tech-Pionier Elon Musk warnt: dass künstliche Intelligenz einen Dritten Weltkrieg auslöst.

An Musks eigenem Produkt zeigt sich, warum manche Experten die Debatte für einen Hype halten, die wenig gemein hat mit der Realität auf dem Schlachtfeld: Der chinesische Tech-Konzern Tencent verleitet mit drei Aufklebern auf der Straße einen autonom fahrenden Tesla Model S, in den Gegenverkehr zu fahren. Ein verstecktes Muster in einem Fernsehbild gaukelte Sensoren vor, dass es regne - die Scheibenwischer wischten. Fehler, die der menschliche Tesla-Fahrer problemlos korrigieren kann - die bei einem militärischen System aber große Probleme darstellen. Die Technik-Schmiede des Pentagon, die Defense Advanced Research Projects Agency, arbeitet bereits daran, Algorithmen robust zu machen gegen solche Täuschungen. Doch bleibt dabei ein Dilemma: Dass sich künstliche Intelligenzen letztlich immer wieder gegenseitig überlisten, ist nie ganz auszuschließen.

Bestens informiert mit SZ Plus – 14 Tage kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4791986
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 13.02.2020/hij
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.