INF-Vertrag Die Vereinten Nationen ringen seit Jahren um verbindliche Regelungen

Diese dritte Revolution in der Kriegsführung wirft eine Reihe ethischer und juristischer Fragen auf: Wie unterscheidet ein Roboter zwischen Zivilisten und Kämpfern? Wie soll eine Maschine erkennen, ob jemand bereits verletzt ist, also nicht mehr schießen kann? Oder dass er sich ergibt? "Entscheidend ist, ob der Mensch noch genug Einfluss und Kontrolle hat über den Waffeneinsatz. Bei autonomen Systemen ist das nicht mehr der Fall, da stößt auch das internationale Völkerrecht an seine Grenzen", sagt Sicherheitsexperte Dickow.

Mini-Kampfdrohnen können sich selbständig zu einem Schwarm formieren und angreifen. Illustration: SZ-Grafik

(Foto: )

Bei den Vereinten Nationen in Genf ringt die Staatengemeinschaft seit Jahren um verbindliche Regelungen für autonome Waffensysteme, es gibt eine Lobby für ein Verbot der sogenannten Killerroboter. Aber es gibt einige Staaten, die sich unter Verweis auf das bereits stattfindende Wettrüsten einem Verbot widersetzen. Im März steht die nächste Verhandlungsrunde an, eine Einigung gilt als unwahrscheinlich. Es ist gut möglich, dass eine Reihe von Staaten dann wie bei dem Verbot von Landminen, Streumunition oder Atomwaffen voranprescht und außerhalb der UN nach Regelungen sucht, denen sich nur ein Teil der Staatengemeinschaft unterwirft.

Noel Sharkey, emeritierter Professor von der Universität Sheffield und einer der bekanntesten britischen Forscher im Bereich Robotik und künstliche Intelligenz, steht an der Spitze der Bewegung, die sich für ein Verbot autonomer Waffensysteme einsetzt, noch bevor sie in den militärischen Alltag integriert werden. Die Entscheidung, einen Menschen zu töten, dürfe niemals von einer Maschine gefällt werden, sagt Sharkey. "Zwar machen Menschen Fehler, auch in Kriegen, aber man kann sie zur Verantwortung ziehen." Der Einsatz voll autonomer Waffen im Krieg sei ein Verstoß gegen die Menschenwürde.

Weniger menschliche Verluste durch autonome Waffensysteme?

Aber es gibt in der wissenschaftlichen Debatte auch andere Haltungen. Paul Scharre etwa, der für die US-Armee einst als Soldat im Irak und in Afghanistan gekämpft hat, nun beim Thinktank Center for a New American Security forscht und ein Buch über die Zukunft der Kriegsführung geschrieben hat, will sich nicht so eindeutig positionieren. Scharre will zumindest darüber diskutieren, ob der Einsatz autonomer Waffensysteme im Krieg nicht auch dazu führen könnte, menschliche Verluste zu reduzieren.

Dahinter steckt die Frage: Irren sich Roboter häufiger als Menschen? In zivilen Bereichen wie der Gesichtserkennung sind autonome Systeme längst präziser als Menschen. Und falls selbstfahrende Autos eines Tages Statistiken mit weniger Verkehrstoten hervorbringen sollten, ist es dann nicht auch denkbar, dass autonome Waffensysteme, die nicht durch menschliche Regungen wie Frust, Wut und Trauer geleitet werden, Entscheidungen treffen, die in Kriegen zu weniger Toten führen?

"Was das Thema Präzision betrifft, haben Maschine klare Vorteile", sagt Sicherheitsexperte Dickow, "aber das ist kein Argument für den Einsatz autonomer Systeme im Krieg." Niemand habe ein Problem mit den Vorzügen der neuen Technologie, "es ist nur ein massives Problem, wenn die menschliche Kontrolle vollständig verloren geht". Und das Argument der emotionsfreien Maschine, die keine Kriegsgräuel verübe, lasse sich auch genau umdrehen: "Es gibt auch menschliche Empathie und Zurückhaltung im Krieg, wodurch Schlimmeres verhindert wird", sagt Dickow.

Sicherheitspolitik Atomwaffen stabilisieren nicht, sie destabilisieren

INF-Vertrag

Atomwaffen stabilisieren nicht, sie destabilisieren

Besonders dann, wenn sie als einzuplanende militärische Mittel verstanden werden. Die Kündigung des INF-Vertrages zeigt die Wiederkehr solchen Denkens.   Kommentar von Kurt Kister