bedeckt München 17°

Killerroboter:Wenn Maschinen über Leben und Tod entscheiden

Der Protest gegen Killerroboter in London erinnert an den charmanten C-3PO.

(Foto: AFP)
  • In Genf diskutieren die UN über die Entwicklung und den Einsatz autonomer Waffensysteme.
  • Kritiker fürchten, dass "Killerroboter" bald selbstständig Entscheidungen über Leben und Tod treffen.
  • Befürworter argumentieren, dass Maschinen weniger Fehlentscheidungen träfen und besser geeignet seien, Menschenleben zu schonen.

Eine Armee von Killerrobotern, die federnden Schrittes wie eine Horde Tyrannosaurus Rex auf eine Großstadt zustürmen. Maschinen außer Kontrolle, mit rot leuchtenden Elektroaugen, die entfesselt wehrlose Menschen niedermähen. Was seit Jahrzehnten als Motiv in Horror- und Science-Fiction-Filmen von "Terminator" bis "Transformers" auftaucht, könnte durch den technischen Fortschritt in einigen Jahren der Realität zumindest nahekommen. Etliche Länder, unter ihnen die USA, Russland und China, aber auch Großbritannien, Südkorea oder Israel arbeiten an der Entwicklung tödlicher autonomer Waffensysteme, weitere Länder haben zumindest ein Interesse daran.

Autonome Waffensysteme sind an sich nichts Neues: Eine Landmine löst aus, ohne dass ein Kommandeur den Befehl dazu gibt, vor allem aber ohne Unterscheidung, wenn das nötige Gewicht auf den Zündmechanismus ausgeübt wird. Auch die Selbstschussanlagen an der innerdeutschen Grenze feuerten automatisch, einmal scharfgemacht.

Der Unterschied zu modernen Militärrobotern ist, dass diese durch die Fortschritte in der Sensor- und Computertechnik, vor allem bei der Entwicklung künstlicher Intelligenz, künftig komplexe Entscheidungsabläufe auf dem Schlachtfeld übernehmen könnten, ohne dass Menschen noch in diese Prozesse eingreifen.

Technologie Aufstand gegen die Killerroboter
Versprechen von KI-Experten

Aufstand gegen die Killerroboter

Tesla-Gründer Elon Musk gibt mit tausenden Forschern das Versprechen, keine autonomen Waffen zu entwickeln. Einer anderer Unterzeichner hält etwas anderes für gefährlicher: den Menschen.   Von Marvin Strathmann

Von der dritten Revolution in der Kriegsführung nach der Erfindung des Schießpulvers und der Atomwaffen ist die Rede - Kritiker solcher Waffensysteme knüpfen daran ihre Warnung und Forderungen nach einer Regulierung oder gar einem Verbot. Zugleich macht sie das für Streitkräfte attraktiv: Technologischer Vorsprung in diesem Bereich soll in den USA dazu beitragen, die militärische Überlegenheit gerade im Vergleich mit Russland und China zu wahren. Andere Staaten, nicht zuletzt China, die stark in künstliche Intelligenz investieren, erhoffen sich, ihren Rückstand zu verkürzen. Unter der Ägide der Vereinten Nationen beraten derzeit in Genf Delegationen aus mehr als 75 Staaten über den Umgang mit diesen futuristischen Waffen.

Schon die Definition ist umstritten: Das Internationale Komitee vom Roten Kreuz (IKRK), das über die Einhaltung des humanitären Völkerrechts wacht, stellt auf die "Autonomie in kritischen Funktionen" ab, also, dass ein Waffensystem Ziele sucht, verfolgt, identifiziert und auswählt und sie ohne Zutun eines Menschen attackiert.

Es gibt bereits heute Luftabwehr- und Nahbereichsverteidigungssysteme, die semiautonom arbeiten - allerdings in eng eingegrenzten Bereichen. Das amerikanische MK-15 Phalanx etwa, auch auf Schiffen der Bundesmarine im Einsatz, soll anfliegende Raketen mit einer Maschinenkanone abwehren, und wird von Menschen nur noch überwacht. Russland verfügt mit dem Pantsir-System über ähnliche Fähigkeiten. Die Armee setzt es in Syrien zur Sicherung ihrer Stützpunkte ein.

Was bedeutet es, wenn Maschinen über den Einsatz tödlicher Gewalt entscheiden?

Geforscht aber wird an unbemannten Kampfjets - eine Fortentwicklung der ferngesteuerten Drohnen, bei denen immer noch ein Mensch den Knopf am Joystick in einem Kommandostand drückt, um Waffen abzufeuern. Mit landgestützten Systemen experimentiert das US-Militär auch bereits seit einiger Zeit: der Crusher ist eine Technologie-Studie eines unbemannten Kampffahrzeugs von 2006, sechs Tonnen schwer, auf drei Achsen, geländegängig, testweise mit einer Maschinenkanone bestückt.

Technologie Warum autonome Waffen wohl nicht verboten werden
Killerroboter

Warum autonome Waffen wohl nicht verboten werden

In Genf verhandeln 75 Nationen, um Killerroboter zu regulieren. Eine Einigung ist unrealistisch, weil einige Staaten eigene Interessen verfolgen.   Von Paul-Anton Krüger

China entwickelt ebenfalls autonome Fahrzeuge für das Militär. Eigenständig agierende Waffensysteme zum Einsatz auf See, unter Wasser oder gar im Weltall wecken ebenfalls Interesse von Streitkräften weltweit, zumal bei menschenleeren Gefechtsfeldern, wo die ethisch-moralischen und rechtlichen Probleme leichter zu überwinden sein könnten.

Die Schlüsselfrage ist, was es bedeutet und welche Folgen es hat, wenn Roboter basierend auf Algorithmen ohne das Zutun eines Menschen Entscheidungen über den Einsatz tödlicher Gewalt treffen. Zwar gibt es bislang keine Rechtsnormen, die den Einsatz solcher Systeme spezifisch regeln. Vertreter der in Genf verhandelnden Staaten seien sich aber im Prinzip einig, dass auch autonome Waffensysteme mit dem humanitären Völkerrecht vereinbar sein müssen, sagte der Vorsitzende der UN-Verhandlungsrunde, der indische Botschafter Amandeep Singh Gill, am Montag in Genf.