Einsatz von Kampfrobotern Künstliche Intelligenz mit der Lizenz zum Töten

Sie erkennen Kämpfer, die an Grenzzäune heranrobben, manche von ihnen werfen sogar Granaten: Kampfroboter, die ohne menschlichen Befehl töten können, sind keine Utopie mehr. Im Gaza-Konflikt wurden bereits erste Prototypen eingesetzt. Experten der Menschenrechtsorganisation Human Rights Watch wollen die Tötungsmaschinen nun verbieten.

Von Joachim Käppner

"Killer robots", Roboter, die zum Töten geschaffen sind, das klingt nach Ballerspielen am Computer: Schwer außer Gefecht zu setzende mechanische Monster grunzen "Hrrr-hrrr" und verrichten ihr übles Werk, ehe der Halbwüchsige an der Playstation sie per Laserbeschuss verschrottet.

Im Film hat die mordlüsterne künstliche Intelligenz längst Kultstatus, etwa in der "Terminator"-Reihe mit Arnold Schwarzenegger. Doch die Waffe, die mit ihrem elektronischen Gehirn selbständig handelt und denkt, ist keine Utopie mehr. Leider, finden die Experten der Menschenrechtsorganisation Human Rights Watch - und fordern bereits einen Bann über solches Gerät.

In einer neuen Studie mit dem bezeichnenden Namen "Losing Humanity" (etwa: wie man die Menschlichkeit verliert) appelliert Human Rights Watch an alle Staaten, "Entwicklung, Produktion und Einsatz völlig autonomer Waffen völkerrechtlich bindend zu verbieten". Völlig autonom, das wäre der Kampfroboter, der durch sein elektronisches Gehirn selbständig entscheidet und handelt - und den man nicht zur Rechenschaft ziehen kann, wenn Zivilisten verletzt und getötet würden.

So weit ist es noch nicht. Aber das Militär steht schon, so die Studie, "an der Schwelle einer technischen Revolution". Allein die USA investieren jährlich sechs Milliarden Dollar in die Entwicklung unbemannter Gefechtssysteme.

Die künstliche Intelligenz denkt noch nicht allein, aber sie denkt schon mit. Wie etwa Guardium, ein an der Grenze zum Gazastreifen eingesetzter, fahrbarer Roboter der israelischen Streitkräfte. Auf der Armee-Homepage schwärmen die Bedienungsoffiziere im sicheren Leitstand: "Wir können vergrabene Sprengkörper erkennen, Fußabdrücke und Kämpfer, die an den Grenzzaun herankriechen." Der Roboter, der aussieht wie aus "Star Wars" entsprungen, kann auch in Straßen hineinfahren, in denen Heckenschützen lauern. Kommt er unter Feuer, berechnet er die Koordinaten des Feindes und gibt sie an Kampfhubschrauber weiter.

Noch ist das System unbewaffnet. Die Weißrussen dagegen haben mit dem Adunok-M schon einen Miniroboter, der mit einem Maschinengewehr und einem Granatwerfer ausgestattet ist. Das Gerät wird aber noch weitgehend vom PC aus ferngesteuert, der südkoreanische SGR-1 hingegen agiert schon teilautonom: An der Grenze zum kommunistischen Nordkorea aufgestellt, soll der Wachroboter mit der Lizenz zum Töten feindliche Soldaten per Hightech-Sensoren eigenständig aufspüren und notfalls beschießen.

Der Kampfroboter wäre am Boden, was die Drohne in der Luft schon ist: ein unbemanntes System, das den Tod bringt, wie die US-Predators, die zahlreiche Al-Qaida-Terroristen mit Raketen getötet haben. "Intelligente" Systeme wie Drohnen und Roboter sind in asymmetrischen Kriegen eine große Versuchung für die Befehlshaber. Überraschung, präzises Zuschlagen, ständige Beobachtung erkannter Gegner - solche Vorteile liegen sonst in der Hand Aufständischer wie der Taliban. Stephen Goose, Leiter der Abteilung Waffen bei Human Rights Watch, fürchtet genau diese Versuchung: "Es geht eindeutig zu weit, Maschinen auf dem Schlachtfeld über Leben und Tod entscheiden zu lassen."