Autonome Kampfmaschinen:Wenn Killerroboter selbstständig Entscheidungen treffen

Die USA diskutieren, Kampfrobotern die Entscheidung über Leben und Tod zu überlassen. Doch kann mit autonomen Waffensystemen der Krieg wirklich ethischer gemacht werden?

Von Jeanne Rubner

Der Terminator kennt keine Angst, nicht Mitleid oder Reue. Er tötet schnell und effizient. Der Terminator ist Science-Fiction, aber bereits jetzt werden Killerroboter eingesetzt, zum Beispiel um Terroristen aufzuspüren und umzubringen. Nun kommt bald der nächste Schritt: "Wir stehen an der Schwelle zu autonomen Waffen", sagte der Physiker und Sicherheitsforscher Marcel Dickow von der Berliner Stiftung Wissenschaft und Politik kürzlich bei der Tagung der Deutschen Physikalischen Gesellschaft in Regensburg.

Sogar das Pentagon diskutiert offen über eine mögliche Automatisierung von Kriegsmaschinen. "Wenn ein Roboter in einer Kampfzone ist, die Mission kennt und ausreichend getestet worden ist, wollen wir dann die menschliche Steuerung ausschalten? Kann die Maschine selbständig entscheiden?", zitierte das National Defense Magazine kürzlich eine Pentagon-Mitarbeiterin.

Selbständig navigierende Drohnen wie Predator oder Reaper fliegen inzwischen für viele Armeen. Auch die Navy setzt auf automatisch gesteuerte Schiffe, zum Beispiel um Küsten zu überwachen. Vergangenes Jahr ließ das Pentagon in einem Versuch über Alaska Mikro-Drohnen von einer F-16 ausschwärmen. Solche winzigen Gefährte können feindliches Gelände überwachen oder die gegnerische Armee mit gezielten Signalen verwirren.

Echte autonome Waffen, ohne einen Menschen am Auslöser, gibt es noch nicht. "Die Drohnen, die wir im Moment im Einsatz haben, das sind keine autonomen Systeme, sie sind weitgehend ferngesteuert", sagt Dickow. Sie fliegen, weil ein Mensch die Route bestimmt hat. Auch wenn die Analyse immer stärker auf Bildern und Daten beruht, noch sitzen Menschen vor Bildschirmen und entscheiden.

Ein künstliches Insekt, das darauf programmiert ist, bärtige Turbanträger umzubringen

Doch es sei nur eine Frage der Zeit, so Dickow, bis die Maschinen autonom sein werden, eine Frage von ein paar Jahren. Die Komponenten für autonome Waffen - Sensoren, Bilderkennung, Entscheidungsalgorithmen, mit denen eine Maschine selbständig in einem unbekannten Gelände navigieren kann - sind längst auf dem Markt. Zugleich sind die anfallenden Datenmengen von Menschen kaum noch zu bewältigen. Ironischerweise treiben vor allem zivile Firmen die Technik voran. Die Maschinen werden immer intelligenter. Ein denkbares Szenario: Ein künstliches Insekt, das darauf programmiert ist, bärtige Turbanträger aufzuspüren und mit einem Giftstachel zu töten. Götz Neuneck, Physiker und Professor am Institut für Friedensforschung der Universität Hamburg vergleicht die Lage mit der frühen Atomforschung: "Als 1938 die Kernspaltung entdeckt wurde, ahnten viele, was sich damit anrichten lässt, aber trotzdem wurde weiter geforscht." Deshalb müsse man jetzt an die Moral der Entwickler appellieren.

Manche Strategen sind von der Vorstellung angetan, Automaten aufs Kampffeld zu schicken. Sie hoffen, dass sich damit Opfer unter den Soldaten und auch Zivilisten vermeiden lassen. Und schließlich verhalten sich auch Menschen nicht immer ethisch; Beispiele von Soldaten, die aus Rachegefühl einen Zivilisten umbringen, gibt es in jedem Krieg. Der Knackpunkt aber ist: Wer ist verantwortlich, wenn ein Kampfroboter einen Fehler macht? Und wie intelligent kann man die Maschinen konstruieren? Würden sie im Zweifel auch erkennen, wenn zum Beispiel unter dem Turban nicht ein Kämpfer steckt, sondern eine Frau, die sich nur verkleidet hat, um zu fliehen? Killermaschinen sind dumm, ist die "Campaign to Stop Killer robots" überzeugt, ein Bündnis, das vor allem von den Menschenrechtsorganisationen Human Rights Watch und Amnesty International getragen wird. Man könne ethisches Verhalten nicht programmieren - obwohl es in den USA durchaus Versuche gibt, genau dies zu machen.

Regeln die UN bald die Killermaschinen?

Dennoch sind auch die meisten Generäle der Ansicht, dass ein Mensch den Knopf drücken muss. Eine Maschine, die autonom über Leben und Tod entscheidet, sei für sie nicht denkbar, sagt Dickow, weil sie in der traditionellen Vorstellung von Befehl und Gehorsam verhaftet seien, wo für jede Aktion ein Mensch verantwortlich sein muss.

"Es sollte immer eine bedeutende menschliche Steuerung vorhanden sein", sagt Dickow. Nur: Wie definiert man die genau? Dickow hat eine Formel entwickelt. Sie verbindet 14 wichtige Parameter wie den Datenaustausch von Maschine und Umgebung oder die menschlichen Eingriffsmöglichkeiten. Daraus ergibt sich ein Maß dafür, wie autonom eine Waffe ist. "Mit diesem Instrument kann man sehr viel leichter und transparenter entscheiden, ob ein System so autonom ist, dass es sicherheitspolitische Risiken aufwirft", sagt Dickow. Nach seiner Formel wäre eine Drohne wie die Reaper noch tolerierbar. Ein Roboterinsekt mit einer Giftnadel würde jedoch gegen das humanitäre Völkerrecht verstoßen.

An diesem Montag treffen sich Experten in Genf, um die nächsten Verhandlungen über die "Konvention bestimmter konventioneller Waffen" vorzubereiten. Dieser UN-Vertrag verbietet unter anderem Landminen und Laserwaffen, man könnte ihn auf autonome Waffen ausdehnen. Dickow wird seine Formel vorstellen - er hofft, dass die Weltgemeinschaft damit einen Schritt näher an ein Verbot von Kriegsautomaten kommt.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: