Künstliche Intelligenz im Militärbereich:"Es gibt sehr reale Gründe für Sorge"

Künstliche Intelligenz im Militärbereich: Sicherheits- und Verteidigungsexpertin Ulrike Franke vom European Council on Foreign Relations forscht zur Zukunft der Kriegsführung.

Sicherheits- und Verteidigungsexpertin Ulrike Franke vom European Council on Foreign Relations forscht zur Zukunft der Kriegsführung.

(Foto: privat)

Flash Wars? Ein neues Wettrüsten? Ulrike Franke identifiziert große Gefahren, die vom Einsatz künstlicher Intelligenz in Waffensystemen ausgehen. Doch die Expertin glaubt: Wir haben keine andere Wahl, als die Entwicklung mitzugehen.

Interview von Sebastian Gierke

Immer öfter wird künstliche Intelligenz (KI) vom Militär eingesetzt. Über Risiken und Gefahren dieser Entwicklung kann kaum jemand so gut Auskunft geben wie Ulrike Franke, eine der führenden Expertinnen auf dem Gebiet. Sie arbeitet für das European Council on Foreign Relations und forscht schon lange zur Zukunft der Kriegsführung.

SZ: Frau Franke, viele Menschen haben Angst vor autonomen Waffensysteme, die ohne menschliche Beteiligung kämpfen können? Gibt es die überhaupt?

Ulrike Franke: Nein, den Terminator, ein Waffensystem, das selbst entscheidet und tötet, das gibt es bislang nicht. Aber eine Waffe herzustellen, die Daten auswertet, ein Ziel findet und, wenn das Ziel ein Mensch ist, diesen umbringt, ist technisch kein Problem mehr.

Was macht künstliche Intelligenz im militärischen Bereich so interessant?

Am wichtigsten für das Militär ist, neben Themen wie Effizienz bei der Logistik oder Präzision bei der Zielführung, die Geschwindigkeit. Der Computer ist oft viel schneller als der Mensch. Zum Beispiel bei der Datenanalyse oder der Zielauswahl.

Deshalb wird viel geforscht und investiert. Könnten bald Maschinen gegen Maschinen kämpfen?

Das ist eine gefährliche Illusion, von der wir uns befreien müssen. Dahinter steckt ja die Hoffnung auf einen "bloodless war", den unblutigen Krieg. Dass der Mensch nicht mehr kämpfen muss - und nicht mehr sterben. Daran glaube ich nicht. Es ist zwar wahrscheinlich, dass in zukünftigen Kriegen autonome Drohnenschwärme gegen autonome Verteidigungssysteme kämpfen. Aber da wird der Krieg nicht aufhören. Irgendwann kommt der Punkt, an dem die 18-jährigen Rekruten im Matsch sterben. Im Krieg werden Menschen getötet. Das ist die fundamentale Natur jedes Kriegs, die kann man nicht einfach "weghoffen".

Die KI wird die Natur des Kriegs nicht verändern?

Technologie verändert den Charakter des Kriegs, aber nicht seine Natur. Da ist sich die aktuelle Forschung überwiegend einig. Nur ein paar wenige glauben, dass die künstliche Intelligenz so mächtig wird, dass nicht mehr der Mensch die Strategie im Krieg entwickelt, sondern dass auch das von diesem völlig neuen Akteur übernommen wird. Dann würde sich auch die Natur des Kriegs ändern. Das ist aktuell aber Science-Fiction.

Viele befürchten, dass Kriege durch KI noch blutiger werden. Worin sehen Sie die größten Gefahren?

Es gibt sehr reale Gründe für Sorgen. Man kann diese grob in drei Kategorien unterteilen: die technologischen, die ethischen und die sicherheitspolitischen Gefahren.

Fangen wir mit den technologischen an.

Da gibt es eine ganze Reihe, das Problem mit der Nachvollziehbarkeit ist eines davon: Ein KI-gesteuertes System lernt selbst und trifft deshalb manchmal Entscheidungen, ohne dass Menschen die Gründe dafür exakt nachvollziehen können. Besonders problematisch ist das, weil man in Kriegen immer mit Sabotage rechnen muss. Wenn ich aber Entscheidungen nicht mehr nachvollziehen kann, kann ich Sabotage kaum noch entdecken. Ein zweiter Punkt: KI lernt aus großen Datenmengen, die fehlen aber im militärischen Bereich teilweise. Wir haben keine Daten zu Atomkriegen, weil wir keine Atomkriege geführt haben. Und die Daten, die wir haben, sind oft biased, also verzerrt. Ein Beispiel: Die westlichen Länder haben in den letzten Jahren vor allem Kriege gegen Menschen mit eher dunklerer Hautfarbe geführt. Da haben wir Daten. In einem Krieg gegen Menschen mit anderer Hautfarbe könnte das ganze System deshalb zusammenbrechen. Das ist sehr simplifiziert formuliert, aber nicht falsch.

Worin bestehen die ethischen und rechtlichen Probleme?

Hier stellt sich die große Frage, ob es vertretbar ist, wenn ein nichtmenschliches System eine Entscheidung trifft, die über Leben und Tod bestimmt. Das ist eine moralische Frage, die man auch mit ja beantworten kann. Dann nehmen wir uns aber einen zivilisatorischen Fortschritt, der ja darin besteht, dass aktuell irgendwer sein Gewissen damit belasten muss, dass ein anderer Mensch zu Schaden kommt. Der, der KI zum Töten einsetzt, wird dadurch in gewisser Weise entmenschlicht.

Und was ist mit dem sicherheitspolitischen Bereich?

Der macht mir die größten Sorgen, einmal wegen drohender Rüstungswettläufe, aber auch wegen der steigenden Gefahr für sogenannte"Flash wars".

Das müssen Sie beides erklären.

Ein Rüstungswettlauf ist eine Situation, in der einer ein Waffensystem kauft, weil er sich unsicher fühlt, und zwar deshalb, weil die andere Seite eine neue Fähigkeit hat. Durch den Kauf sieht sich Ersterer wiederum gefährdet. So kann eine Eskalationsdynamik entstehen, die potenziell destabilisierend und finanziell ruinös ist. Die Gefahr ist dann, dass eine Seite beschließt anzugreifen, wenn sie glaubt, gerade für kurze Zeit die Überhand zu haben, weil sie keinen anderen Ausweg sieht.

Und was sind Flash Wars?

Bei Flash Wars reagieren autonome Systeme extrem schnell aufeinander. Auslöser kann ein Fehler sein oder ein Missverständnis, auch eine tatsächliche Attacke. Wenn ein autonomes System darauf in Millisekunden antwortet und zurückschießt, haben wir plötzlich einen militärischen Konflikt von potenziell gewaltigem Ausmaß, den niemand wollte.

Das klingt nach unkalkulierbaren Risiken. Ist die technische Entwicklung noch aufzuhalten?

Nein, wir haben keine Wahl. Wir müssen die technische Entwicklung mitgehen, weil das unsere potenziellen Gegner auch tun. Wir - damit meine ich Deutschland, die Bundeswehr, Europa, den Westen - dürfen uns das nicht nur ansehen, wir müssen es vorantreiben. Die Technologie macht den Krieg a priori weder besser noch schlechter. Sie verändert ihn.

Aber sind die Gefahren nicht zu groß? Chemische Waffen wurden auch verboten.

Das ist ein ganz anderer Fall. Da konnte man sagen, das ist einfach nur schrecklich, das muss verboten werden. So ein eindeutiges Gut und Schlecht gibt es bei Autonomie und KI nicht. Außerdem wurden biologische und chemische Waffen nicht primär deshalb verboten, weil sie schlimm sind. Der ehrliche Grund ist, dass sie militärisch nicht so wichtig waren. Bei KI ist das Gegenteil der Fall.

Aber man kann die Entwicklung doch nicht einfach sich selbst überlassen.

Man muss die Gefahren mitdenken. Es muss Punkte geben, bei denen sich die Welt einig ist, dass es das nicht geben darf. Insbesondere Flash Wars und Rüstungswettläufe. Da hat wirklich niemand ein Interesse dran, auch nicht die Bösen. Aber das durchzusetzen und vor allem zu kontrollieren wird schwierig.

Warum? Es wurden immer wieder Rüstungsabkommen abgeschlossen.

Die alten Instrumente, die im Grunde darauf aufbauten, dass man gesagt hat: Du darfst 150 Sprengköpfe haben und du 100, die sind im Bereich KI obsolet. Da gibt es nichts zu zählen. Eine Drohne kann mit einem Klick von einer komplett autonomen Killerroboterdrohne zu einer normalen ferngesteuerten Drohne gemacht werden. Außerdem befinden wir uns, blickt man auf den Zustand der Welt, gerade nicht in einer Zeit der Rüstungskontrolle und Abrüstungsverträge. Es gibt Versuche internationaler Übereinkommen, aber für die nahe Zukunft bin ich da leider sehr pessimistisch.

Zur SZ-Startseite
Roboter liest

SZ PlusWeltliteratur von KI bebildert
:Maschinenliebe

Zur Frankfurter Buchmesse hat eine künstliche Intelligenz Schlüsselszenen der Weltliteratur generiert. Über einen komplizierten Prozess und seine überraschenden Ergebnisse.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: