Revolution beim Militär Wenn Roboter töten

Unheimliche Begegnung der monströsen Art: Polizisten im Science-Fiction-Film "Robocop" von 2014 in der Auseinandersetzung mit einem imponierenden Gegner. Irgendwann könnte solch eine Konfrontation vielleicht Realtität werden.

(Foto: Allstar/Studiocanal)
  • Überall auf der Welt wird an autonomen Waffensystemen gearbeitet.
  • Menschenrechtsorganisationen wollen Kriegsroboter grundsätzlich verbieten lassen.
  • Experten diskutieren unterdessen darüber, welche Regeln autonom agierende Kampfmaschinen brauchen.
Von Tobias Matern und Charlotte Theile

Am Ende hat die von einem Menschen gemachte Maschine nicht nur die Atomwaffen unter Kontrolle. Sondern auch ihren Erschaffer. Mit monotoner Stimme diktiert sie ihm ein Herrschaftssystem, das praktischerweise Emotionen gleich mit einschließt: "Mit der Zeit wirst du mich nicht nur mit Respekt und Ehrfurcht betrachten, sondern mit Liebe." Die Schlussszene aus dem Film "Colossus" von 1970 hält unter den vielen Science-Fiction-Filmen über Roboter, Krieg und das Outsourcen der Kontrolle über Maschinen eine brillante Pointe bereit. Brillant, und vor allem: verstörend.

Die Fiktion ist auch knapp 50 Jahre nach dem Film noch Fiktion. Vollständig autonome Waffensysteme sind noch nirgendwo auf der Welt im Einsatz. Aber: "Wir stehen an der Schwelle zu autonomen Waffen", sagte der Physiker und Sicherheitsforscher Marcel Dickow kürzlich. Die technische Entwicklung verläuft rapide. Auch wenn vermutlich noch Jahrzehnte vergehen, bis sogenannte Killer-Roboter in den Krieg ziehen könnten: Die Grenzen vom selbstbestimmten menschlichen Handeln hin zu unabhängig agierenden Kriegsmaschinen verschwimmen.

Wenn Killerroboter selbstständig Entscheidungen treffen

Die USA diskutieren, Kampfrobotern die Entscheidung über Leben und Tod zu überlassen. Doch kann mit autonomen Waffensystemen der Krieg wirklich ethischer gemacht werden? Von Jeanne Rubner mehr ...

Die Politik reagiert darauf. Bei den Vereinten Nationen in Genf kamen in der vergangenen Woche Experten aus aller Welt zusammen. Unter deutscher Leitung debattierten sie, welche Regeln autonom agierende, tödliche Systeme brauchen. Die Fragen, mit denen sich Botschafter, Militärmitarbeiter und Wissenschaftler auseinandersetzen, sind weitreichend. Allen ist bewusst: Wenn Maschinen über Leben und Tod entscheiden, ist im Krieg nichts mehr, wie es einmal war. Das fängt mit einfachen technischen Fragen an: Wie unterscheidet ein Roboter Zivilisten von Kombattanten? Woran erkennt die Maschine, ob jemand verletzt ist? Was ist, wenn einer die Hände hebt: Gibt er auf? Oder greift er jetzt an?

Menschenrechtsorganisationen wie Human Rights Watch und Amnesty International sehen hier unüberwindbare Probleme: Sie wollen Killer-Roboter rundweg verbieten lassen. Andere halten entgegen: In jedem Krieg gebe es Kollateralschäden. Roboter jedoch begingen nicht die Fehler von Menschen. "Entscheidend ist nicht das Werkzeug an sich, sondern wie und von wem es eingesetzt wird", sagt der US-Politologe Peter W. Singer, der zahlreiche Bücher über die Kriege der Zukunft geschrieben hat. Auch mit einem Stein könnten schließlich Kriegsverbrechen begangen werden.

"Die Geschichte zeigt, dass Waffenverbotsverträge meist einen Krieg zu spät kommen"

Eine der zentralen Fragen in der Debatte ist: Irren sich Roboter häufiger als Soldaten? Aus dem zivilen Leben ahnt man die Antwort bereits. In der Gesichtserkennung oder bei der Flug-Navigation sind autonome Systeme und Computer präziser als das, was ein Mensch leisten kann - so steht es in einem Papier der Genfer Experten. Und: Die künstliche Intelligenz wird sich weiterentwickeln. Keiner kann heute vorhersehen, welche Fähigkeiten sie in zehn oder fünfzig Jahren haben wird. Wenn Roboter eines Tages besser Auto fahren könnten als Menschen, sind sie dann nicht auch die besseren Soldaten?

Aus Sicht vieler Wissenschaftler ist an den Genfer Gesprächen vor allem eines bemerkenswert: Sie finden statt, bevor es zu spät ist, bevor voll ausgereifte, autonome Militärroboter eingesetzt werden. "Die Geschichte zeigt, dass Waffenverbotsverträge meist einen Krieg zu spät kommen", sagt der Völkerrechtler Robin Geiß, der an der Universität Glasgow lehrt und für die Friedrich-Ebert-Stiftung eine Studie über autonome Waffensysteme verfasst hat.

Dieser Mann kämpft gegen Killerroboter

Stephen Goose will autonome Waffensysteme verbieten lassen. Sie könnten bald entscheiden, wer sterben muss und wer leben darf. Interview von Jannis Brühl mehr ...

So hat sich die Staatengemeinschaft beispielsweise erst im Jahr 1925 auf das Genfer Gas-Protokoll geeinigt - nachdem der Einsatz von Giftgas im Ersten Weltkrieg seine mörderische Wirkung entfaltet hatte. Auch die Verbote von Streubomben wurden erst nach langen Verhandlungen und auf Druck von Nichtregierungsorganisationen beschlossen - allerdings haben weder die USA noch Russland oder China das Abkommen ratifiziert.

Völkerrechtler Geiß beurteilt autonome Waffensysteme nicht nur als eine weitere technische Entwicklung, sondern als "militärtechnologische Zeitenwende". Treffen wie jenes in Genf zeigten, dass ein komplettes Verbot wenig Aussicht auf Erfolg habe. "Die neue Waffentechnologie ist für viele Armeen viel zu verlockend", sagt er. Es müsse jetzt darum gehen, die Entwicklung rechtlich einzuhegen, das Mindestmaß menschlicher Kontrolle zu wahren, "gerade bei kritischen Entscheidungen", wie der Zielerfassung und dem Abfeuern der Waffen. Autonomie und die wachsende Automatisierung militärischer Systeme sei aus völkerrechtlicher Perspektive nicht per se problematisch - Minensuchboote oder selbständig handelnde Sanitätsfahrzeuge seien nicht zu beanstanden.