Revolution beim Militär:Wenn Roboter töten

RoboCop (Robocop)

Unheimliche Begegnung der monströsen Art: Polizisten im Science-Fiction-Film "Robocop" von 2014 in der Auseinandersetzung mit einem imponierenden Gegner. Irgendwann könnte solch eine Konfrontation vielleicht Realtität werden.

(Foto: Allstar/Studiocanal)
  • Überall auf der Welt wird an autonomen Waffensystemen gearbeitet.
  • Menschenrechtsorganisationen wollen Kriegsroboter grundsätzlich verbieten lassen.
  • Experten diskutieren unterdessen darüber, welche Regeln autonom agierende Kampfmaschinen brauchen.

Von Tobias Matern und Charlotte Theile

Am Ende hat die von einem Menschen gemachte Maschine nicht nur die Atomwaffen unter Kontrolle. Sondern auch ihren Erschaffer. Mit monotoner Stimme diktiert sie ihm ein Herrschaftssystem, das praktischerweise Emotionen gleich mit einschließt: "Mit der Zeit wirst du mich nicht nur mit Respekt und Ehrfurcht betrachten, sondern mit Liebe." Die Schlussszene aus dem Film "Colossus" von 1970 hält unter den vielen Science-Fiction-Filmen über Roboter, Krieg und das Outsourcen der Kontrolle über Maschinen eine brillante Pointe bereit. Brillant, und vor allem: verstörend.

Die Fiktion ist auch knapp 50 Jahre nach dem Film noch Fiktion. Vollständig autonome Waffensysteme sind noch nirgendwo auf der Welt im Einsatz. Aber: "Wir stehen an der Schwelle zu autonomen Waffen", sagte der Physiker und Sicherheitsforscher Marcel Dickow kürzlich. Die technische Entwicklung verläuft rapide. Auch wenn vermutlich noch Jahrzehnte vergehen, bis sogenannte Killer-Roboter in den Krieg ziehen könnten: Die Grenzen vom selbstbestimmten menschlichen Handeln hin zu unabhängig agierenden Kriegsmaschinen verschwimmen.

Die Politik reagiert darauf. Bei den Vereinten Nationen in Genf kamen in der vergangenen Woche Experten aus aller Welt zusammen. Unter deutscher Leitung debattierten sie, welche Regeln autonom agierende, tödliche Systeme brauchen. Die Fragen, mit denen sich Botschafter, Militärmitarbeiter und Wissenschaftler auseinandersetzen, sind weitreichend. Allen ist bewusst: Wenn Maschinen über Leben und Tod entscheiden, ist im Krieg nichts mehr, wie es einmal war. Das fängt mit einfachen technischen Fragen an: Wie unterscheidet ein Roboter Zivilisten von Kombattanten? Woran erkennt die Maschine, ob jemand verletzt ist? Was ist, wenn einer die Hände hebt: Gibt er auf? Oder greift er jetzt an?

Menschenrechtsorganisationen wie Human Rights Watch und Amnesty International sehen hier unüberwindbare Probleme: Sie wollen Killer-Roboter rundweg verbieten lassen. Andere halten entgegen: In jedem Krieg gebe es Kollateralschäden. Roboter jedoch begingen nicht die Fehler von Menschen. "Entscheidend ist nicht das Werkzeug an sich, sondern wie und von wem es eingesetzt wird", sagt der US-Politologe Peter W. Singer, der zahlreiche Bücher über die Kriege der Zukunft geschrieben hat. Auch mit einem Stein könnten schließlich Kriegsverbrechen begangen werden.

"Die Geschichte zeigt, dass Waffenverbotsverträge meist einen Krieg zu spät kommen"

Eine der zentralen Fragen in der Debatte ist: Irren sich Roboter häufiger als Soldaten? Aus dem zivilen Leben ahnt man die Antwort bereits. In der Gesichtserkennung oder bei der Flug-Navigation sind autonome Systeme und Computer präziser als das, was ein Mensch leisten kann - so steht es in einem Papier der Genfer Experten. Und: Die künstliche Intelligenz wird sich weiterentwickeln. Keiner kann heute vorhersehen, welche Fähigkeiten sie in zehn oder fünfzig Jahren haben wird. Wenn Roboter eines Tages besser Auto fahren könnten als Menschen, sind sie dann nicht auch die besseren Soldaten?

Aus Sicht vieler Wissenschaftler ist an den Genfer Gesprächen vor allem eines bemerkenswert: Sie finden statt, bevor es zu spät ist, bevor voll ausgereifte, autonome Militärroboter eingesetzt werden. "Die Geschichte zeigt, dass Waffenverbotsverträge meist einen Krieg zu spät kommen", sagt der Völkerrechtler Robin Geiß, der an der Universität Glasgow lehrt und für die Friedrich-Ebert-Stiftung eine Studie über autonome Waffensysteme verfasst hat.

So hat sich die Staatengemeinschaft beispielsweise erst im Jahr 1925 auf das Genfer Gas-Protokoll geeinigt - nachdem der Einsatz von Giftgas im Ersten Weltkrieg seine mörderische Wirkung entfaltet hatte. Auch die Verbote von Streubomben wurden erst nach langen Verhandlungen und auf Druck von Nichtregierungsorganisationen beschlossen - allerdings haben weder die USA noch Russland oder China das Abkommen ratifiziert.

Völkerrechtler Geiß beurteilt autonome Waffensysteme nicht nur als eine weitere technische Entwicklung, sondern als "militärtechnologische Zeitenwende". Treffen wie jenes in Genf zeigten, dass ein komplettes Verbot wenig Aussicht auf Erfolg habe. "Die neue Waffentechnologie ist für viele Armeen viel zu verlockend", sagt er. Es müsse jetzt darum gehen, die Entwicklung rechtlich einzuhegen, das Mindestmaß menschlicher Kontrolle zu wahren, "gerade bei kritischen Entscheidungen", wie der Zielerfassung und dem Abfeuern der Waffen. Autonomie und die wachsende Automatisierung militärischer Systeme sei aus völkerrechtlicher Perspektive nicht per se problematisch - Minensuchboote oder selbständig handelnde Sanitätsfahrzeuge seien nicht zu beanstanden.

Sind die Systeme autonom, dürfte es schwierig sein, sie zurückzurufen

Hält das Völkerrecht bereits Antworten parat? Die Haager Landkriegsordnung von 1899 befasst sich naturgemäß noch nicht mit Robotern. Sie enthält aber die sogenannte Martens'sche Klausel, wonach auch bei Dingen, die nicht ausdrücklich geregelt sind, immer das Gebot der Menschlichkeit zu beachten ist. Daraus lässt sich aus Sicht von Geiß das Erfordernis menschlicher Kontrolle ableiten.

Also diskutierten die Experten in Genf, wie das aussehen könnte, wenn man einen Menschen als Kontrollinstanz zwischenschaltet; allerdings mit mageren Ergebnissen. Der Terminus "sinnvolle menschliche Kontrolle" sei nur ein Begriff, um die Debatte zu strukturieren, hieß es in Genf, oder auch: "Die exakte Beschaffenheit dieser Kontrolle ist unklar."

Darüber hinaus verlaufen die Konfliktlinien bei den Gesprächen dort, wo sie immer verlaufen: Länder, die weder das Geld noch das Know-how haben, um in die Entwicklung einzusteigen, wünschen sich ein Verbot. Demgegenüber gibt es die Staaten, die sich nicht länger in die Karten schauen lassen wollen. Beim Weltwirtschaftsforum in Davos hieß es vor einigen Monaten: In China, Frankreich, Großbritannien, Israel, Russland, Südkorea und den USA sei die Arbeit bereits weit fortgeschritten. Und auch ein Land wie Indien, das lange Küsten und Grenzen hat, kann der Idee einer Roboter-Patrouille einiges abgewinnen.

Dass das Bewusstsein über die Dimension des Problems zunimmt, zeigt sich auch an der Frequenz, mit der die Experten das Thema besprechen. Nach dem ersten Treffen 2014 fand nun in Genf die dritte Gesprächsrunde statt. Am Freitag einigten sie sich auf gemeinsame Empfehlungen. 2017 soll auf dieser Grundlage weiterdiskutiert werden - dieses Mal jedoch von Experten mit formellem Mandat. Wie lange es aber dauert, bis es klare Regeln gibt, ob es überhaupt dazu kommt, bleibt ungewiss.

Wer sich das Papier von 2015, der zweiten Runde, anschaut, den schaudert es immer mal wieder. Einige Delegationen hätten zum Ausdruck gebracht, dass sie die "Lethal Autonomous Weapon Systems", wie die tödlichen Zukunftsmaschinen in der Fachsprache genannt werden, als eine Gefahr für "das humanitäre Völkerrecht - und, möglicherweise, für die Menschheit selbst" ansehen. An anderer Stelle heißt es: "Das Verhalten der Maschine, die die Fähigkeit hat, selbständig zu lernen, ist nicht vorhersehbar."

Michael Biontino, Ständiger Vertreter Deutschlands bei der Abrüstungskonferenz in Genf, spricht lieber von Herausforderungen. Davon gibt es einige. Sind die Systeme wirklich autonom, dürfte es schwierig sein, sie zurückzurufen: Ein Szenario, bei dem die verfeindeten Parteien bereits Frieden geschlossen haben, die Roboter aber noch U-Boote jagen? Vorstellbar. Wer haftet dann? Die Programmierer? Der Kommandeur? Aus Genf heißt es, die Staaten seien verantwortlich für ihre Waffensysteme.

Wer haftet eigentlich für das, was Roboter anrichten?

Auch hier könnte die Analogie selbstfahrender Autos helfen: Längst argumentieren deren Entwickler klassisch utilitaristisch. Wenn es viel weniger Unfalltote gebe, müsse die Gesellschaft vielleicht lernen, den einen oder anderen Software-Toten zu akzeptieren. Die Vorteile der Killer-Roboter liegen aus dieser Perspektive auf der Hand: Sie nehmen keine Drogen. Sie kennen weder Angst noch Rachegelüste. Sie vergewaltigen nicht, sie foltern nicht, sie brennen keine Dörfer nieder. Es sei denn, jemand hackt sich ins System.

Aber selbst für Robotik-Experten sind die Risiken offenbar nahezu unkontrollierbar. 4000 von ihnen unterstützen Human Rights Watch in ihrer Forderung, die autonomen Tötungssysteme zu verbieten. Die Nichtregierungsorganisationen sehen Parallelen zur Atombombe: Damals hätten es viele Physiker bereut, nicht rechtzeitig vor den Konsequenzen gewarnt zu haben.

Ein gutes Beispiel. Die Menschheit hätte sich seit Jahrzehnten ein halbes Dutzend Mal vernichten können. Trotz aller Droh-Gebärden ist dies nicht geschehen. Das "Gleichgewicht des Schreckens" im Kalten Krieg verhinderte, dass eine der Atommächte tatsächlich den Erstschlag wagte. Was ändert sich also, wenn nun eine weitere, tödliche Waffe dazukommt? Senkt es für politische Entscheidungsträger die Hemmschwelle, wenn sie wissen, dass ihre Soldaten nicht in Plastiksäcken zurückkommen werden - sondern der Elektroschrott höchstens ein Fall für den Sondermüll ist? Auch das ist eine Sorge, die in Genf artikuliert wurde. Andererseits: Bomben, Raketen und Drohnen machen es schon lange möglich, dass Soldaten Entscheidungen Tausende Kilometer vom Kampfort entfernt fällen.

Im Film "Colossus" macht die Maschine dem Menschen unmissverständlich klar: Folge meinen Anweisungen und du wirst in Frieden leben. "Niemals", schreit ihr Erschaffer. Doch der Roboter hat ihn da schon längst ins Visier genommen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: