Militärtechnologie Kampagne gegen Kampfroboter

Sehen so wie im Film Star Wars: Episode II - Angriff der Klonkrieger die Schlachten der Zukunft aus?

Im Science-Fiction-Film sind sie eine alltägliche Waffe, doch Realität sollen sie nicht werden: autonome Killerroboter. Die Staaten der Welt prüfen, ob sie den Einsatz der Maschinen verbieten können, bevor diese überhaupt entwickelt werden.

Von Richard Stone

Die Mission: Überzeugen Sie die globale Rüstungsindustrie, auf eine Klasse von Waffen zu verzichten, die die Kriegsführung im 21. Jahrhundert umwälzen könnte. Das ist eine Aufgabe für Don Quijote?

Dem würde Noel Sharkey widersprechen. Er hat allerdings sechs Jahre bis zum ersten Erfolg gebraucht. In einem provokativen Gastkommentar in der britischen Zeitung The Guardian hatte der Informatiker von der University of Sheffield 2007 gewarnt, Kriegsroboter könnten bald die Entscheidungsgewalt bekommen, ob und welche Menschen sie töten sollen.

Doch vor Kurzem haben sich die Vertragsparteien der "Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen" (CCW) einstimmig bereit erklärt, die Bestimmungen über autonome, nicht mehr vom Menschen gesteuerte Waffen zu überprüfen.

Für viele Laien haben Sharkeys Warnungen Bilder von Killermaschinen aus Science-Fiction-Filmen heraufbeschworen. Aber auch Experten auf dem Gebiet der künstlichen Intelligenz empfinden Angst, dass Roboter sich allein auf Algorithmen verlassen könnten, um zwischen feindlichen Soldaten und Zivilisten zu unterscheiden.

Die Kampagne von Sharkey und anderen Wissenschaftlern könnte die tötenden Roboter noch verhindern. Über die CCW einen Bann zu erwirken, wie er auch für Landminen, Brand- und Blendwaffen gilt, sei "keine Fantasterei mehr", sagt der Informatiker. Er steht inzwischen einer unabhängigen Organisation namens International Committee for Robot Arms Control (ICRAC) vor. "Wir haben einen großen Schritt vorwärts gemacht, um diese abscheulichen Waffen zu verhindern."

Die Organisation wurde 2009 von Sharkey und mehreren anderen gegründet. Der Informatiker ist in der Öffentlichkeit das vielleicht bekannteste Mitglied, weil er von 1998 bis 2004 eine Fernsehserie moderiert hat, die ausgerechnet "Robot Wars" hieß: Hier traten ferngesteuerte Maschinen gegeneinander an, um sich Gliedmaßen abzuschlagen oder umzuwerfen. Er weiß also, worüber er spricht.

Es dürfe nie passieren, sagt Sharkey, dass das Militär die Roboter als Kraftverstärker benutzt. Er verweist auf ein grundsätzliches Problem ihrer Software: "Computerprogramme brauchen eine klare Definition von Nicht-Kämpfern, aber die gibt es nicht." Zwar behaupten manche Informatiker, eines Tages dürften technische Systeme mit künstlicher Intelligenz die kognitiven Fähigkeiten von Menschen erreichen oder übertreffen. Das bedeute aber nur, dass Menschen die Kontrolle verlieren könnten, warnt der Physiker Mark Gubrud, der ebenfalls im ICRAC arbeitet. "Dumme Roboter sind gefährlich, aber kluge Roboter sind noch gefährlicher." Und die in der Mitte könnten die gefährlichsten überhaupt sein.

Genau wie der Panzer, das U-Boot und die Atombombe die Regeln der Kriegsführung im 20. Jahrhundert umgeschrieben haben, könnten autonome Waffen die Gewaltkonflikte im 21. Jahrhundert prägen. "Das Militär arbeitet schon an Systemen, die immer selbständiger werden, und zwar nicht weil sie cool sind, sondern weil sich die Planer Vorteile auf dem Schlachtfeld versprechen", sagt Peter Singer vom Thinktank Brookings Institution in Washington. Das Pentagon hat bereits 2007 eine 25-Jahre-Vision für unbemannte Waffen vorgestellt, wonach Roboter Ziele autonom lokalisieren und zerstören sollen. Und vor einem Jahr deutete die Militärführung an, dass nicht nur Sachen, sondern auch Menschen zum Ziel werden könnten, wenn die oberste Ebene der Entwicklung zustimme.

"Es gab keine Fanfare, aber die Welt hatte ihre erste offen erklärte nationale Politikvorgabe für Killerroboter", kommentierte das Mark Gubrud im Bulletin of the Atomic Scientists - dem Blatt mit der berühmten Weltuntergangsuhr, die zurzeit auf fünf vor zwölf steht. Gubrud hatte schon 2002 zusammen mit dem Physiker Jürgen Altmann von der Universität Dortmund einen Bann für Kriegsroboter gefordert. Die 2012 vom amerikanischen Verteidigungsministerium erlassene Direktive, so Gubrud, "setzt sich über den Widerstand im Militär selbst hinweg und signalisiert den Entwicklern und Rüstungsverkäufern, dass es das Pentagon mit den autonomen Waffen ernst meint".

Die USA und andere Staaten setzen schon lange unbemannte Waffensysteme ein - vor allem Kampfdrohnen, die Hunderte Missionen geflogen sind, um Vertreter der Taliban oder von Al-Qaida zu töten. Bisher wurden sie von Menschen per Fernbedienung gesteuert. Amerikanische Verteidigungsexperten sind nicht wild darauf, Robotern die Entscheidung zum Töten zu überlassen. Ein wichtiger Einwand ist, dass tödliche autonome Waffen nicht mit dem Kriegsvölkerrecht vereinbar wären. Es verlangt nach den verheerenden Angriffen auf Zivilisten im Zweiten Weltkrieg, dass Armeen ihre Aktionen auf militärische Ziele begrenzen und zwischen Kämpfern und Nicht-Kämpfern unterscheiden.