UN-Beratung Sollen Killerroboter verboten werden?

Zwei Roboter des Models Nakhlebnik (l.) und Soratnik (r.) auf einer militärischen Schaustellung in Moskau im Februar 2017.

(Foto: imago/ITAR-TASS)

Dürfen Staaten "tödlichen autonome Waffensysteme" einsetzen? Darüber beraten derzeit Rüstungsexperten bei der Uno in Genf. Die wichtigsten Fragen und Antworten.

Unter dem Dach der Vereinten Nationen haben an diesem Montag in Genf Beratungen von Regierungsvertretern über sogenannte Killerroboter begonnen. Die Rüstungsexperten wollen bis Freitag Gespräche über die militärischen und ethischen Aspekte der "Tödlichen autonomen Waffensysteme" führen.

Was ist ein Killerroboter?

Sogenannte Killerroboter sind autonome Waffensysteme, die einen Menschen orten, identifizieren und töten können - ohne dass ein Soldat daran beteiligt ist. Noch sind offensive vollautonome Waffensysteme praktisch nicht im Einsatz, doch mehrere Staaten wie die USA, China, Russland oder Israel arbeiten an ihnen. Das könnten zum Beispiel Kampfdrohnen sein, die in riesigen Schwärmen fliegen, den Luftraum überwachen aber beispielsweise auch die Luftabwehr überwältigen können. Oder unbemannte Boote, aber auch Roboter, die an Grenzen patrouillieren. Die USA haben zum Beispiel das X47B: ein Flugzeug, das ohne menschliche Hilfe von einem Flugzeugträger abheben und landen kann. Es kann mehrere Tausend Pfund Bomben tragen. Bei diesen Systemen wird die Entscheidung über Zerstören und Töten an einen Algorithmus delegiert, der Mensch ist nicht mehr beteiligt, er übergibt die Verantwortung an die Technik.

Die Bundeswehr hat unter anderem in Afghanistan das Luftabwehrsystem Mantis eingesetzt, das anfliegende Geschosse selbstständig erkennen und sie von Software gesteuert abschießen kann. Das System ist allerdings defensiv, in der Debatte um internationale Ächtung geht es um autonome Angriffswaffen. Deutschland hat die Gespräche über ein Verbot in der Abrüstungskonferenz mit vorangetrieben.

Allerdings haben sich Rechtsexperten immer noch nicht auf eine endgültige Definition geeinigt, was unter tödlichen autonomen Waffensystemen genau zu verstehen ist.

Warum wird ein Verbot gefordert?

Zwar hat bislang kein Staat vollautonome offensive Waffensysteme eingesetzt. Doch wenn künftig Maschinen entscheiden, verändert sich der Krieg. Das wirft neue Fragen auf: Wie unterscheidet ein Roboter Zivilisten von Kombattanten? Woran erkennt die Maschine, ob jemand verletzt ist oder ob jemand angreift? Kritiker sagen, vollautomatische Waffen gefährdeten die Zivilbevölkerung, weil Computer weder Menschen- noch Völkerrecht kennen. Bereits in einem UN-Bericht von 2013 wurde eindrücklich vor diesen Systemen gewarnt. Roboter sollten nicht die Möglichkeit haben, über Leben und Tod von Menschen entscheiden zu können.

Wenn Killerroboter selbstständig Entscheidungen treffen

Die USA diskutieren, Kampfrobotern die Entscheidung über Leben und Tod zu überlassen. Doch kann mit autonomen Waffensystemen der Krieg wirklich ethischer gemacht werden? Von Jeanne Rubner mehr ...

"Allerdings müssen Kampfroboter nicht gegen Kriegsvölkerrecht verstoßen", sagt Frauke Renz, Juristin und Gründerin der Beratungsorganisation "International Relations Asia". Autonome Waffensysteme könnten auch Vorteile mit sich bringen, da sie keine Fehlentscheidungen treffen - aus Angst oder Rachegelüsten. Wenn sie richtig programmiert seien, könnten sie sich sogar besser an die Vorschriften des Kriegsvölkerrechts halten.

Wer fordert ein Verbot?

Im August hatten sich mehr als hundert Chefs von Firmen in den Bereichen Robotertechnik und künstliche Intelligenz (KI) in einem offenen Brief an die Vereinten Nationen für ein Verbot der Killerroboter ausgesprochen. Mit Ihnen würde die dritte Revolution der Kriegsführung beginnen. (Dier erste und die zweite Revolution waren die Erfindung des Schießpulvers und der Atomwaffen.) Killerroboter könnten "Terrorwaffen oder Waffen sein, die Terroristen und Despoten gegen die unschuldige Bevölkerung einsetzen". Wenn die Büchse der Pandora einmal geöffnet wurde, lasse sie sich nicht mehr schließen. Zu den Unterzeichnern gehören unter anderem Tesla-Milliardär Elon Musk sowie Mustafa Suleyman, Mitgründer von Googles KI-Abteilung DeepMind. Auch Nichtregierungsorganisationen wie Human Rights Watch fordern ein Verbot sowie die "Internationale Kampagne zum Stopp von Killerrobotern"

In der Uno drängen rund 120 Länder auf die globale Ächtung der Killerroboter, vor allem Staaten mit weniger entwickelten Kriegsmaschinen. Hinter den Kulissen bremsen ein solches Verbot dagegen jene Länder, die bei der Kooperation von künstlicher Intelligenz und Kriegsgeräten führend sind, heißt es. Dazu zählen die USA, Großbritannien, China, Israel, Russland und Südkorea.

Worum geht es in Genf genau?

Die UN sind in den vergangenen Jahren zum Forum für die Debatte über autonome Waffensysteme geworden. NGOs wollen nun, dass die UN den entscheidenden Schritt gehen, dass Entwicklung, Produktion, Handel und Einsatz autonomer Waffensysteme verboten werden. Nun laufen die Gespräche in Genf, auch mit IT-Unternehmen und NGOs. Vor allem soll es darum gehen, was technisch möglich ist, wenn Waffen mit künstlicher Intelligenz verstärkt werden. Nächste Woche sollen die 125 Vertragsstaaten der Konvention entscheiden, wie es mit Killerrobotern weitergeht. Gegner der Waffen wollen ein zusätzliches Protokoll im Rahmen der "Konvention über den Einsatz bestimmter konventioneller Waffen" von 1980. Bisherige Protokolle beschränken den Einsatz von Waffen, die so genannte nicht entdeckbare Splitter in Körpern hinterlassen, sowie von Landminen und Sprengfallen, Brandwaffen, blind machenden Laserwaffen.

Wie stehen die Chancen für ein Verbot?

Die Chancen sind gering, da große Militärmächte wie die USA und Russland hinter den Kulissen gegen eine Ächtung der Killerroboter arbeiten sollen. Der Vorsitzende der Abrüstungskonferenz, der indische Gesandte Amandeep Gill, erklärte, dass die Fachleute sehr wahrscheinlich keine Empfehlung für den Start von Verbotsverhandlungen abgeben würden. Es herrsche zwar Einigkeit, dass "menschliche Wesen verantwortlich für Entscheidungen über Leben und Tod" bleiben müssten. Allerdings gebe es unterschiedliche Ansichten unter den Staaten, wie diese menschliche Kontrolle genau aussehen müsse.

Erfolgreiche NGO-Kampagnen gegen bestimmte Waffentypen gab es schon in der Vergangenheit - unter anderem gegen Landminen. Allerdings gibt es in der aktuellen Debatte über autonome Waffensysteme einen entscheidenden Unterschied, wie Michael Horowitz und Julia Macdonald auf der Fach-Webseite Lawfareblog schreiben: Die Definition von Landminen oder Streumunition ist klar, die von autonomen Waffensystemen nicht. Es herrscht keine Einigkeit, wo die "Selbstständigkeit" beginnt. Was ist etwa mit solchen Waffen, in deren Einsatz Soldaten doch noch involviert sind, wenn etwa Raketen von Menschen abgeschossen werden und sich dann autonom ihre Ziele suchen? Oder beginnt die Autonomie erst, wenn die Waffen ihre Umgebung ähnlich einem Menschen "wahrnehmen" können?

Hinzu kommt: Weil es um den Versuch eines präventiven Verbots geht, gibt es noch keine Opfer. Erst die wachsende Zahl der Minenopfer seit den 1980er Jahren bewegte die Politik zu einer Ächtung von Landminen. Allerdings gibt es auch ein erfolgreiches Modell für präventive Verbote. Nachdem die USA und China Prototypen für Blendwaffen entwickelt hatten, erreichte eine erfolgreiche Kampagne 1995 deren Verbot für den Einsatz gegen Menschen (nicht gegen optische Geräte), bevor sie überhaupt auf dem Schlachtfeld zum Einsatz kamen. Dass diese Waffen einfach zu bösartig waren, war Konsens.

Wenn Roboter töten

Geschöpfe wie aus "Robocop" sind bald Realität. Im Krieg wird dann nichts mehr sein, wie es war. Forscher suchen nach Regeln für die neue Zeit. Von Tobias Matern und Charlotte Theile mehr...