bedeckt München
vgwortpixel

Revolution beim Militär:Sind die Systeme autonom, dürfte es schwierig sein, sie zurückzurufen

Hält das Völkerrecht bereits Antworten parat? Die Haager Landkriegsordnung von 1899 befasst sich naturgemäß noch nicht mit Robotern. Sie enthält aber die sogenannte Martens'sche Klausel, wonach auch bei Dingen, die nicht ausdrücklich geregelt sind, immer das Gebot der Menschlichkeit zu beachten ist. Daraus lässt sich aus Sicht von Geiß das Erfordernis menschlicher Kontrolle ableiten.

Also diskutierten die Experten in Genf, wie das aussehen könnte, wenn man einen Menschen als Kontrollinstanz zwischenschaltet; allerdings mit mageren Ergebnissen. Der Terminus "sinnvolle menschliche Kontrolle" sei nur ein Begriff, um die Debatte zu strukturieren, hieß es in Genf, oder auch: "Die exakte Beschaffenheit dieser Kontrolle ist unklar."

Darüber hinaus verlaufen die Konfliktlinien bei den Gesprächen dort, wo sie immer verlaufen: Länder, die weder das Geld noch das Know-how haben, um in die Entwicklung einzusteigen, wünschen sich ein Verbot. Demgegenüber gibt es die Staaten, die sich nicht länger in die Karten schauen lassen wollen. Beim Weltwirtschaftsforum in Davos hieß es vor einigen Monaten: In China, Frankreich, Großbritannien, Israel, Russland, Südkorea und den USA sei die Arbeit bereits weit fortgeschritten. Und auch ein Land wie Indien, das lange Küsten und Grenzen hat, kann der Idee einer Roboter-Patrouille einiges abgewinnen.

Drohnen Automaten des Todes
Kampfroboter

Automaten des Todes

Die USA geben Milliarden Dollar für eine neue Generation von Waffen aus - Kampfroboter. Im Gegensatz zu Drohnen verrichten sie ihr tödliches Werk ganz ohne menschlichen Einfluss: präzise, ohne zu zögern, skrupellos. Menschenrechtler sind alarmiert, vor allem, weil die Maschinen nicht zwischen Zivilisten und Kämpfern unterscheiden können. Andere trauen ihnen jedoch eine "zivilisierende Kraft in Kriegen" zu.   Von Reymer Klüver

Dass das Bewusstsein über die Dimension des Problems zunimmt, zeigt sich auch an der Frequenz, mit der die Experten das Thema besprechen. Nach dem ersten Treffen 2014 fand nun in Genf die dritte Gesprächsrunde statt. Am Freitag einigten sie sich auf gemeinsame Empfehlungen. 2017 soll auf dieser Grundlage weiterdiskutiert werden - dieses Mal jedoch von Experten mit formellem Mandat. Wie lange es aber dauert, bis es klare Regeln gibt, ob es überhaupt dazu kommt, bleibt ungewiss.

Wer sich das Papier von 2015, der zweiten Runde, anschaut, den schaudert es immer mal wieder. Einige Delegationen hätten zum Ausdruck gebracht, dass sie die "Lethal Autonomous Weapon Systems", wie die tödlichen Zukunftsmaschinen in der Fachsprache genannt werden, als eine Gefahr für "das humanitäre Völkerrecht - und, möglicherweise, für die Menschheit selbst" ansehen. An anderer Stelle heißt es: "Das Verhalten der Maschine, die die Fähigkeit hat, selbständig zu lernen, ist nicht vorhersehbar."

Michael Biontino, Ständiger Vertreter Deutschlands bei der Abrüstungskonferenz in Genf, spricht lieber von Herausforderungen. Davon gibt es einige. Sind die Systeme wirklich autonom, dürfte es schwierig sein, sie zurückzurufen: Ein Szenario, bei dem die verfeindeten Parteien bereits Frieden geschlossen haben, die Roboter aber noch U-Boote jagen? Vorstellbar. Wer haftet dann? Die Programmierer? Der Kommandeur? Aus Genf heißt es, die Staaten seien verantwortlich für ihre Waffensysteme.

Wer haftet eigentlich für das, was Roboter anrichten?

Auch hier könnte die Analogie selbstfahrender Autos helfen: Längst argumentieren deren Entwickler klassisch utilitaristisch. Wenn es viel weniger Unfalltote gebe, müsse die Gesellschaft vielleicht lernen, den einen oder anderen Software-Toten zu akzeptieren. Die Vorteile der Killer-Roboter liegen aus dieser Perspektive auf der Hand: Sie nehmen keine Drogen. Sie kennen weder Angst noch Rachegelüste. Sie vergewaltigen nicht, sie foltern nicht, sie brennen keine Dörfer nieder. Es sei denn, jemand hackt sich ins System.

Aber selbst für Robotik-Experten sind die Risiken offenbar nahezu unkontrollierbar. 4000 von ihnen unterstützen Human Rights Watch in ihrer Forderung, die autonomen Tötungssysteme zu verbieten. Die Nichtregierungsorganisationen sehen Parallelen zur Atombombe: Damals hätten es viele Physiker bereut, nicht rechtzeitig vor den Konsequenzen gewarnt zu haben.

Ein gutes Beispiel. Die Menschheit hätte sich seit Jahrzehnten ein halbes Dutzend Mal vernichten können. Trotz aller Droh-Gebärden ist dies nicht geschehen. Das "Gleichgewicht des Schreckens" im Kalten Krieg verhinderte, dass eine der Atommächte tatsächlich den Erstschlag wagte. Was ändert sich also, wenn nun eine weitere, tödliche Waffe dazukommt? Senkt es für politische Entscheidungsträger die Hemmschwelle, wenn sie wissen, dass ihre Soldaten nicht in Plastiksäcken zurückkommen werden - sondern der Elektroschrott höchstens ein Fall für den Sondermüll ist? Auch das ist eine Sorge, die in Genf artikuliert wurde. Andererseits: Bomben, Raketen und Drohnen machen es schon lange möglich, dass Soldaten Entscheidungen Tausende Kilometer vom Kampfort entfernt fällen.

Im Film "Colossus" macht die Maschine dem Menschen unmissverständlich klar: Folge meinen Anweisungen und du wirst in Frieden leben. "Niemals", schreit ihr Erschaffer. Doch der Roboter hat ihn da schon längst ins Visier genommen.

Ihr Forum Welche Regeln brauchen autonom agierende Kampfmaschinen?
Ihr Forum

Welche Regeln brauchen autonom agierende Kampfmaschinen?

Vollständig autonome Waffensysteme sind zwar noch nicht im Einsatz - doch die technische Entwicklung steht kurz davor. Während Menschenrechtsorganisationen für ein Verbot plädieren, sehen andere Stimmen wie Völkerrechtler Geiß nur die Möglichkeit einer rechtlichen Beschränkung. Wie müsste diese aussehen?