Kriegsführung mit KI:"Deutschland spielt ein doppeltes Spiel"

MOSCOW REGION RUSSIA AUGUST 21 2017 Nakhlebnik Sponger an automated combat system developed b

Soldat Roboter: Der "Nakhlebnik Sponger", ein automatisiertes Waffensystem der Kalaschnikow-Gruppe, bei einer Waffenmesse in Moskau.

(Foto: imago/ITAR-TASS)

An der Automatisierung der Kriegsführung mit künstlicher Intelligenz arbeiten einige Staaten auf Hochtouren. Es droht ein neuer Nord-Süd-Konflikt.

Von Andrian Kreye

Es klingt vernünftig, Roboter statt Soldaten in eine Schlacht zu schicken. Ein zerstörter Roboter ist ein Fall von Sachbeschädigung. Außerdem werden Maschinen mit künstlicher Intelligenz (KI) nicht müde, sie leiden nicht unter Stress-Syndromen und sie begehen keine Kriegsverbrechen, weil sie nur so unemotional und vernünftig handeln, wie Algorithmen ihnen das vorgeben.

So einfach ist das natürlich nicht. Völkerrechtlich und ethisch gesehen, begehen autonome Waffensysteme vielleicht keine Kriegsverbrechen. Ihr Einsatz ist aber eines. Die vermeintliche Vernunft der Algorithmen ist letztlich Gnadenlosigkeit. Jedes autonome Waffensystem funktioniert mit derselben mechanistischen Konsequenz wie eine Tretmine. Die völkerrechtlich längst geächtet ist.

Mal davon abgesehen, dass sich hier jenseits der Ethik in so ziemlich jeder Geisteswissenschaft Abgründe auftun, unterläuft dieser Diskurs die derzeitigen Bemühungen der KI-Forschung, sich ethische Richtlinien zu geben und die Technologie zum Wohle des Menschen zu entwickeln, wie es etwa die Asilomar-Richtlinien für KI formulieren. Denn die Debatte um autonome Waffensysteme stößt wie die meisten Diskurse rund um künstliche Intelligenz rasch an philosophische Fragen, auf die es noch keine Antworten gibt.

Dazu kommt ein unausgesprochener Nord-Süd-Konflikt, der sich immer deutlicher herauskristallisiert. Vor wenigen Tagen, am 23. November, ging in Genf die CCW-Konferenz zu Ende, bei der die Konvention für reguläre Waffen diskutiert wurde. Sie ist eine alljährliche Abrüstungskonferenz, die in der Regel nicht so viel Aufsehen erregt wie Verhandlungen über Atomwaffen. Was vor allem damit zu tun hat, dass die Opfer konventioneller Konflikte in der Regel Bürger von Schwellen- und Entwicklungsländern sind. Trotzdem hat die Konvention schon einiges erreicht. So wurden blind machende Laserwaffen und Streumunition verboten, die Verwendung von Landminen reguliert.

Beim Verbot von autonomen Waffensystemen stocken die Gespräche allerdings seit Jahren. Es gibt eine Liste der Nationen, die sich eindeutig für ein solches Verbot aussprechen. Die hat sich in diesem Jahr mit Marokko und El Salvador auf 28 Unterzeichnerländer erweitert. Liest man die Liste, finden sich da bis auf den Heiligen Stuhl und Österreich nur so genannte Südländer, vor allem aus dem Nahen Osten (wie Irak, Ägypten, Algerien) und Lateinamerika (wie Mexiko, Guatemala, Venezuela).

Moralische Speerspitze

Es gibt aber auch eine Liste der Nationen, die sich gegen ein Verbot autonomer Waffen aussprechen. Das tun sie nicht immer so eindeutig. Deutschland gibt sich beispielsweise den Anschein, als gehöre es auch bei diesem Thema zur moralischen Speerspitze. Fragt man bei der Organisation "Campaign to Stop Killer Robots" nach, warum die Bundesrepublik trotzdem auf der Liste steht, lautet die Antwort: "Deutschland spielt ein doppeltes Spiel." Thomas Küchenmeister, der die Kampagne in Deutschland vertritt, sagt: "Laut Koalitionsvertrag will sich Deutschland für ein Verbot einsetzen. Die Indizien sprechen dagegen." Küchenmeister hat die Debatte von Anfang an begleitet: "Deutschland plädiert für unverbindliche politische Willenserklärungen, spricht sich aber gegen Verhandlungen über einen verbindlichen Verbotsvertrag aus."

Den Grund zeige zum Beispiel die Partnerschaft Deutschlands mit Frankreich bei der Weiterentwicklung künstlicher Intelligenz. Frankreich, das sich ebenfalls gegen ein verbindliches Verbot stellt, habe längst damit begonnen, KI in Waffensysteme zu integrieren. Im Oktober habe der deutsch-französische Konzern Airbus zum Beispiel an der Ostseeküste den militärischen Einsatz von Drohnenschwärmen getestet. Wenn Deutschland sein ebenfalls im Koalitionsvertrag festgelegtes Ziel verfolge, führende KI-Nation zu werden, wofür drei Milliarden Euro investiert werden sollen, gehört auch der militärische Bereich dazu, denn KI soll konsequent in allen Feldern der Forschungs- und Innovationsstrategie Anwendung finden.

Es ist kein Zufall, dass die erste Nation, die im Mai 2013 die Forderung nach einem Verbot unterzeichnet hat, Pakistan war. Pakistan gehört zu den Zielgebieten des Drohnenkrieges, den Barack Obama massiv ausgeweitet hat. Noch werden diese Drohnen ferngesteuert. An der Automatisierung dieser Kriegsführung mit künstlicher Intelligenz wird auf Hochtouren gearbeitet.

Überhaupt stehen auf der Liste der Verbotsgegner zwölf Weltmarkführer der Rüstungsindustrie. Neben Deutschland und Frankreich sind das die USA, England, Russland, Korea und Israel. China sprach sich zunächst für ein Teilverbot aus, rückte aber davon ab.

Wenn diese Nationen allerdings das digitale Nord-Süd-Gefälle im anbrechenden Zeitalter der künstlichen Intelligenz militarisieren, laufen sämtliche Selbstverpflichtungen und ethischen Richtlinien der KI-Forschung ins Leere. Nicht immer wehren sich Ingenieure und Wissenschaftler gegen die Militarisierung ihrer Arbeit so vehement wie bei Google. Dort protestierten Mitarbeiter erfolgreich gegen das "Project Maven", das für das Pentagon die Bilderkennung für Drohnen verbessern sollte. Microsoft und Amazon arbeiten dagegen weiterhin mit den Streitkräften zusammen. Dabei geht es nicht nur um die Moral einer Belegschaft. Es geht um die Zukunft einer enorm wirkungsvollen Technologie.

Zur SZ-Startseite
Russische Militär-Show

Killerroboter
:Warum autonome Waffen wohl nicht verboten werden

In Genf verhandeln 75 Nationen, um Killerroboter zu regulieren. Eine Einigung ist unrealistisch, weil einige Staaten eigene Interessen verfolgen.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: