Automatische Waffensysteme:Wenn Maschinen Menschen töten

Die nächste Generation von Waffen entscheidet selbständig, wann sie zuschlägt. Die Verlockungen dieser automatisierten Kriegsführung sind groß. Deswegen braucht es rasch internationale Gesetze.

Von Robin Geiß

An Südkoreas streng bewachter Grenze patrouillieren sie schon heute: Roboter, autonom, selbstgesteuert, mit Infrarot-Augen, in den Diensten des Militärs. Über Israels Bergen und Tälern gleiten sie bereits durch die Lüfte: die Drohnen des Typs Harpy haben ein Robotergehirn, das keine Befehle mehr von außen braucht, um gegen Feinde loszuschlagen. Die Harpy kann gegnerische Radarstellungen selbständig erfassen und angreifen, ohne dass ein Mensch noch gefragt zu werden braucht.

Viele Staaten, allen voran die USA, interessieren sich seit geraumer Zeit für sogenannte autonome Waffensysteme. Bei den UN in Genf traf sich deshalb im vergangenen Monat schon zum zweiten Mal eine Runde hochkarätiger Experten. Unter großem Zeitdruck bemühen sie sich, diese neue Entwicklung in das bestehende humanitäre Völkerrecht einzubinden.

Bei diesen Verhandlungen hat sich gezeigt, dass ein komplettes Verbot international wenig Aussicht auf Erfolg hat. Die neue Generation der Waffentechnologie ist für viele Streitkräfte viel zu verlockend. Deshalb bleibt nur, sich mit den Konsequenzen der bevorstehenden militärtechnologischen Zeitenwende möglichst rasch vertraut zu machen. In der Hoffnung, sie noch rechtlich einzuhegen.

Autonome Waffensysteme sollen lernfähig werden

Technisch sind die neuen Waffen weit mehr als nur eine schlichte Fortentwicklung: Autonome Waffensysteme gehen über die seit Jahren diskutierten ferngesteuerten Drohnen einen entscheidenden Schritt hinaus, mit ihnen gibt das Militär erstmals die Zielauswahl und die Entscheidung für das Abfeuern einer Waffe wortwörtlich aus der Hand.

Gewiss, auch Roboter werden von Menschen programmiert, sodass letztlich jede ihrer Aktionen auf einen menschlichen Entscheidungsträger zurückzuführen ist. Aber langfristig weisen die Ambitionen der Waffenentwickler weit darüber hinaus: Anders als Selbstschussanlagen, die besonders in Deutschland noch in schmerzlich naher Erinnerung sind, sollen vollautonome Waffensysteme in Zukunft lernfähig werden. Sie könnten dann in weitaus komplexeren Szenarien zum Einsatz kommen. Szenarien, in denen sie auch auf unvorhergesehene Ereignisse flexibel reagieren müssten. Bislang gibt es derartige Waffensysteme noch nicht.

Die Debatte, in der es um die Zukunft der Kriegsführung geht, ist natürlich spekulativ. Das liegt schon an der Geheimhaltung, die alle militärischen Neuentwicklungen umgibt. Aber der Trend hin zu immer mehr Autonomie ist in der Militärtechnologie klar erkennbar.

Tod durch den Algorithmus

Gegenwärtig wird auf US-amerikanischen Kriegsschiffen bereits das Phalanx-Nahbereichsverteidigungssystem eingesetzt. Es kann Anti-Schiffs-Raketen selbständig erfassen und zerstören. Die britische Tarnkappendrohne Taranis und die sogenannte Fire and forget-Rakete haben ebenfalls autonome Eigenschaften: Sie suchen ihre Ziele selbst, obgleich die Entscheidung für ihren Abschuss noch immer von einem Menschen kommt.

Die Verlockungen für Militärstrategen sind groß: Roboter ermüden nicht, sie ermöglichen Einsätze in Hochrisikosituationen ohne Gefährdung der eigenen Soldaten; und sie können die enorme Daten- und Informationsflut, die vor allem hochmoderne Armeen betrifft, deutlich besser und schneller bewältigen als menschliche Soldaten.

Bei aller Skepsis ist außerdem richtig: Autonomie und zunehmende Automatisierung in militärischen Systemen ist aus völkerrechtlicher Sicht nicht von vorneherein problematisch. Autonom agierende Minensuchboote, Roboter für den Kampfmittelräumdienst sowie selbständig handelnde Sanitäts- und Transportfahrzeuge sind Beispiele für vergleichsweise unkritische Anwendungen.

Roboter kennen keine Wut - und keine Gnade

Hoch problematisch werden diese Waffensysteme jedoch in dem Moment, da sie unmittelbar gegen Menschen eingesetzt werden. Es muss klar sein, dass solche Systeme überhaupt nur dann zum Einsatz kommen dürfen, wenn sie die Regeln des Völkerrechts sicher einhalten können. Das bedeutet vor allem: Sie müssen imstande sein, den Unterschied zwischen Zivilisten und Kombattanten sicher zu erkennen und zu respektieren.

Die Befürworter von Kampfrobotern haben gerade hier ihr stärkstes Argument: Roboter kennen keine Angst, keine Wut, sie sind frei von diesen größten Fehlerquellen für menschliche Soldaten im Einsatz und könnten die Regeln des Völkerrechts deshalb zumindest theoretisch strikter einhalten. Könnten. Auf der anderen Seite kennen Roboter keine Empathie und keine Gnade. Würde ein Roboter jemals aus Gewissensgründen einen rechtswidrigen Befehl verweigern?

Dürfen Maschinen auf Soldaten schießen?

Ganz im Zentrum steht aber eine noch grundsätzlichere, ethische Frage. Selbst wenn autonome Waffensysteme in der Zukunft so programmiert werden könnten, dass sie gemäß den Regeln des geltenden humanitären Völkerrechts nie auf Zivilisten schießen, sondern nur auf Soldaten: Ist es überhaupt vertretbar, Entscheidungen über den Einsatz von Waffengewalt gegen feindliche Soldaten an Maschinen zu überantworten?

Auf Kombattanten darf im Krieg geschossen werden, damit müssen Soldaten rechnen. Aber gibt es so etwas wie einen Anspruch der Soldaten darauf, dass sie nur von wiederum rechtlich ihnen gleichgestellten Soldaten ins Visier genommen werden; gewissermaßen auf Augenhöhe unter Menschen mit all deren Neigung zu Fehlern, aber auch deren Fähigkeit zu Empathie?

Die Befürworter autonomer Waffentechnologie argumentieren, es mache für einen Kombattanten letztlich keinen Unterschied, ob er durch die Kugel eines Soldaten oder eines Roboters stirbt. Genau daran muss man zweifeln. In diesem Szenario wird die Entscheidung über Leben und Tod an autonom agierende Waffensysteme übertragen. Anders als etwa in der auf Heilung ausgerichteten zivilen Medizinrobotik besteht ihr alleiniger Zweck darin, Schaden anzurichten.

Ein Schlag für das Gebot der Humanität

Der Mensch, der in seiner Rolle als Soldat im Krieg ohnehin schon eines Teils seiner Individualität entkleidet ist, wird dadurch noch stärker zum Objekt gemacht. Er wird zum Gegenstand einer mathematisch vorkalkulierten Tötungsentscheidung. Der UN-Sonderberichterstatter Christof Heyns spricht in diesem Zusammenhang plakativ, aber auch zutreffend von "death by algorithm", vom Tod durch den Algorithmus.

Wenn in den kommenden Jahren international keine Einigkeit darüber erzielt werden sollte, wie man mit dieser neuen Technologie umgehen will, wäre dies ein Schlag für das Gebot der Humanität, das ja auch im Krieg gilt. Die Entscheidung über die Tötung eines Menschen muss in der Hand eines Menschen bleiben.

Geiss

Robin Geiß, 40, ist Professor für Internationales Recht und Sicherheit an der Universität Glasgow. Zuvor arbeitete er vier Jahre lang als Rechtsberater des Internationalen Komitees vom Roten Kreuz in Genf.

(Foto: privat)
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: