Waffenexperte:Dieser Mann kämpft gegen Killerroboter

Lesezeit: 4 Min.

Der Amerikaner Stephen Goose leitet das "Waffenressort" bei der Menschenrechtsorganisation Human Rights Watch. Zuvor arbeitete er für den amerikanischen Kongress und für das Center for Defense Information. (Foto: AFP)

Stephen Goose will autonome Waffensysteme verbieten lassen. Sie könnten bald entscheiden, wer sterben muss und wer leben darf.

Interview von Jannis Brühl

Unter Technologie-Optimisten wirkt Stephen Goose immer etwas verloren. Wenn sich die Herolde einer glücklicheren digitalen Zukunft und deren unglaublichen Möglichkeiten treffen, ist er der Spielverderber. Goose ist Waffenexperte bei der Menschenrechtsorganisation Human Rights Watch und oft ein einsamer Mahner. Für seine Organisation leitet er die Kampagne gegen autonome Waffensysteme, kurz Killerroboter. Goose will Killerroboter verbieten lassen und dafür ein Protokoll der UN-Waffenkonvention nutzen, so ähnlich wurden bereits Brandwaffen, Landminen oder Streumunition geächtet. Im April steht eine neue Verhandlungsrunde der Staaten in Genf an.

SZ: Mr. Goose, im Nahen Osten bombardieren Kampfflugzeuge Städte, Terroristen enthaupten ihre Opfer. Warum machen Sie sich Sorgen über Killerroboter, die es noch gar nicht gibt?

Stephen Goose: Wir sprechen über Waffen der Zukunft, und wir wollen ein präventives Verbot dieser Waffen. Das ist keine verrückte Idee, wir haben es schon einmal getan: Seit 1995 sind blendende Laserwaffen verboten, die Menschen erblinden lassen sollten. Die USA und China besaßen schon Prototypen. Sie hätten eine große Gefahr für Zivilisten dargestellt, auch jede Armee ist besser dran ohne sie. Das trifft auch auf vollautonome Waffensysteme zu.

Was ist an ihnen so gefährlich?

In hoch entwickelten Armeen gibt es einen Trend zu einer immer größeren Autonomie der Waffen. Algorithmen könnten bald Entscheidungen über Leben und Tod treffen. Es darf nicht so weit kommen, dass wir keine menschliche Kontrolle über einzelne Angriffe haben. Menschen müssen in die wichtigsten Entscheidungen eingebunden sein, vor allem in die, auf wen gezielt und wer getötet wird.

Kampfroboter
:Automaten des Todes

Die USA geben Milliarden Dollar für eine neue Generation von Waffen aus - Kampfroboter. Im Gegensatz zu Drohnen verrichten sie ihr tödliches Werk ganz ohne menschlichen Einfluss: präzise, ohne zu zögern, skrupellos. Menschenrechtler sind alarmiert, vor allem, weil die Maschinen nicht zwischen Zivilisten und Kämpfern unterscheiden können. Andere trauen ihnen jedoch eine "zivilisierende Kraft in Kriegen" zu.

Von Reymer Klüver

Wer entwickelt diese Waffen?

Die Plattformen existieren bereits, denken Sie an Drohnen. Diese werden zu Killerrobotern werden, wenn unsere Kampagne keinen Erfolg hat. Der menschliche Pilot wird entfernt, künstliche Intelligenz übernimmt, nach den Luftsystemen sind Bodenwaffen, Boden-zu-Boden-Waffen und Unterwassersysteme dran. Halbautonome Vorläufer existieren schon, dabei können Menschen noch eingreifen und die Computer überstimmen. Die USA haben zum Beispiel das X47B: ein Flugzeug, das ohne menschliche Hilfe von einem Flugzeugträger abheben und landen kann - praktisch das gefährlichste Flugmanöver, das Sie machen können. Wenn das Militär es will, kann es mehrere Tausend Pfund Bomben tragen. Südkorea und Israel haben auf dem Boden Systeme, die automatisch Ziele erkennen und feuern. Ein Mensch trifft zwar die letzte Entscheidung, aber dafür hat er meist nur eine Sekunde.

Wie sieht es mit Deutschland aus?

In Afghanistan hat die Bundeswehr ihre Basen mit dem Luftabwehrsystem Mantis geschützt. Dieses System ist zu einem hohen Grad automatisiert, zum Beispiel die Zielerfassung. Aber die Deutschen haben auch die Initiative in der Frage eines Verbots übernommen. Michael Biontino, Deutschlands ständiger Vertreter bei der Genfer Abrüstungskonferenz, hat die Gespräche im vergangenen Jahr geleitet und wird das auch in diesem tun.

Können autonome Waffensysteme die Kriegsführung nicht militärisch effizienter machen, sodass möglicherweise weniger Menschen sterben?

Tatsächlich bringen autonome Waffen militärische Vorteile mit sich, Waffen werden schneller, die Kommunikation leichter. Generäle sprechen von einem "Schwarm-Krieg", in dem der Feind Tausende Maschinen gleichzeitig loslässt. Viele der Vorteile würde es aber auch geben, wenn ein gewisser Grad an menschlicher Kontrolle erhalten bleiben würde, zum Beispiel der, dass weniger Soldaten in der Schusslinie sind. Vollautomatische Waffen gefährden die Zivilbevölkerung, vor allem, weil sie sich nicht dem Menschen- und Völkerrecht unterwerfen würden. Die Frage ist, ob sie wirklich in der Lage wären, zwischen Zivilisten und Kombattanten zu unterscheiden, insbesondere, wenn sich Kombattanten als Zivilisten verkleiden. Oder wenn jemand aus dem Gefecht ausscheidet, etwa wenn er verletzt ist.

Ein Roboter kennt keine Gefühle, er hat aber auch keine Rachegelüste, wenn sein Kamerad getötet wird und er das nächste Dorf niederbrennen könnte.

Das stimmt, aber zugleich hält Mitgefühl den Menschen oft vom Töten ab. Menschliche Soldaten machen Fehler. Aber dann kann wenigstens jemand zur Rechenschaft gezogen werden. Bei Killerrobotern gibt es eine Lücke in der Verantwortung: Kommt es zu einem Regelverstoß, können Sie ja den Roboter nicht bestrafen. Der Befehlshabende, der normalerweise verantwortlich wäre, hat keinen Befehl gegeben. Soll der Programmierer verantwortlich sein, weil er nicht voraussehen konnte, welche Optionen die Maschine auf dem Schlachtfeld haben würde? Oder der Hersteller?

Könnte ein automatisiertes System nicht programmiert werden, sich strikter an Regeln zu halten als ein Mensch?

Die meisten KI-Forscher und Robotiker sehen das anders. 4000 von ihnen haben in einem Brief unsere Forderung nach einem Verbot unterstützt. Sie machen sich vor allem Sorgen um eine mögliche Weiterverbreitung der Waffen, die über entwickelte Staaten hinausgeht. Irgendwann wären sie sehr einfach und billig herzustellen. Die Forscher haben sie als "Kalaschnikows der Zukunft" bezeichnet - jede Armee hätte sie. Diese Systeme würden einem Diktator nie widersprechen, sie würden sich nicht weigern, zu schießen, weil sei dafür nicht programmiert wurden.

Computerentwickler sind nicht gerade bekannt dafür, dass sie Stellung zu politischen und ethischen Fragen beziehen. Warum beschränken sie sich in diesem Fall nicht einfach darauf, den Durchbruch von künstlicher Intelligenz weiter voranzutreiben?

Deshalb ist der Brief so beeindruckend. Normalerweise mischen sich Wissenschaftler nicht ein. Aber ich glaube, manche von ihnen empfinden Reue, weil ihre Zunft die Entwicklung von Atomwaffen nicht verhindert hat. Zudem glauben viele an all die guten Dinge, die mit künstlicher Intelligenz erreicht werden können. Sie wollen nicht, dass der Ruf der Disziplin durch unkontrollierbare Waffen ruiniert wird.

Die Versuchung, solche Waffen zu entwickeln, muss dennoch riesig sein, auch innerhalb westlicher Armeen.

Interessanterweise bekommen wir große Unterstützung von Soldaten, ihren Familien und Veteranen. Das unterscheidet die derzeitige Situation von der bei Clusterbomben, Landminen und Laser-Blendwaffen, als das Militär vehement gegen Verbote war. Die Soldaten haben vielleicht Angst um ihre Jobs. Aber sie sind auch überzeugt, dass sie am besten geeignet sind, um Kämpfer von Zivilisten zu unterscheiden - und nicht irgendein Programmierer.

© SZ vom 07.03.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Künstliche Intelligenz
:Wie Google und Facebook Computern Denken beibringen

Die Unternehmen investieren Hunderte Millionen, um künstliche Intelligenz zu erforschen. Maschinen sollen sehen, hören und verstehen - besser als Menschen.

Von Jannis Brühl und Hakan Tanriverdi

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: