bedeckt München 20°
vgwortpixel

Killerroboter:Deutschland fordert, dass Waffen menschlicher Kontrolle unterliegen müssen

Das heißt, dass etwa die zwingend vorgeschriebenen Abwägungen über die Notwendigkeit und die Verhältnismäßigkeit beim Einsatz von Gewalt getroffen werden müssen. Auch zwischen Kombattanten und Zivilisten muss strikt unterschieden werden; Entscheidungen über die Tötung von Menschen oder die Zerstörung von Sachen müssen zudem zurechenbar bleiben, also auf einen Menschen als Verantwortlichen zurückzuführen sein.

Kritiker aus Menschenrechtsorganisationen, aber auch Vertreter vieler Regierungen bezweifeln, dass diese Grundsätze auf Dauer bei autonomen Waffensystemen gewahrt bleiben können. Die Regierungsfraktionen in Berlin haben sich im Koalitionsvertrag darauf verständigt, autonome Waffensysteme abzulehnen, "die der Verfügung des Menschen entzogen sind". Zusammen mit Frankreich hat Deutschland in Genf eine politische Erklärung vorgeschlagen, wonach alle Waffen stets menschlicher Kontrolle unterliegen müssen.

Der aktuelle Stand der Technologie wirft Fragen auf

Aktivisten fordern jedoch, bereits die Entwicklung autonomer Waffensysteme zu verbieten. Denn selbst die besten selbstlernenden Roboter könnten nie ethisch und moralisch handelnde Wesen sein. Die Entscheidung über die Tötung eines Menschen im Krieg an eine Maschine zu delegieren, verletze den Kern der Menschenwürde und entwerte menschliches Leben.

Stattdessen würden Killerroboter es erlauben, "bewaffnete Konflikte in nie gekanntem Ausmaß zu führen und schneller, als Menschen sie begreifen können", wie Hunderte Fachleute für künstliche Intelligenz 2015 in einem offenen Brief warnten. Zu den Unterzeichnern gehörten Tesla-Chef Elon Musk, der Apple-Co-Gründer Steve Wozniak oder der Physiker Stephen Hawking.

Tatsächlich drängen sich beim derzeitigen Stand der Technologie große Fragen auf: Immer wieder gibt es Unfälle etwa mit autonom fahrenden Autos. Die bewegen sich aber in einer relativ geordneten Umgebung: Straßenmarkierungen, Ampeln, Schilder bieten Informationen, es gibt keine Faktoren, die gezielt darauf hinwirken, dass Funktionieren von Sensoren oder Rechnern zu sabotieren. Dagegen herrscht in Gefechtssituationen der "Nebel des Krieges", von dem schon der preußische Militärtheoretiker Carl von Clausewitz schrieb. Die Situation ist ständig im Fluss, die Informationen unvollständig, der Feind darauf bedacht, mit Beschuss, Täuschung, Sabotage den Gegner zu behindern.

Was, wenn der Gegner die Rechner der Roboter hackt?

Gerade das führen Befürworter autonomer Waffen als deren großen Vorteil an: Sie könnten präziser und schneller als Menschen eine Situation erfassen und beurteilen, unbeeindruckt von Stress, Angst und anderen menschlichen Gefühlen, die Fehlentscheidungen begünstigten.

Sie würden sich im Zweifel nicht aus einem Selbsterhaltungstrieb heraus für einen Angriff entscheiden, sondern unbeeindruckt kalkulieren. Sie seien besser geeignet, Menschenleben zu schonen - nicht zuletzt die der eigenen Soldaten. Und die Öffentlichkeit reagiert gegenüber defekten Killerrobotern sicherlich weniger sensibel, als wenn Zinksärge nach Hause geflogen werden.

Was aber, wenn der Gegner nicht Granaten feuert, sondern die Rechner der Roboter hackt? Und kann man wirklich Programmierer und Konstrukteure einer Maschine in gleichem Maße für tödliche Fehler zur Verantwortung ziehen wie einen Kampfjet-piloten, der eine Bombe ausklinkt, fragen die Kritiker. Sie fürchten, dass alle Debatten über einen rechtlichen Rahmen schon bald von der Realität überholt werden und es dann zu spät ist, dem Einsatz von Killerrobotern noch Grenzen zu setzen.

Netzpolitik Krieg steckt in der DNA des Silicon Valley

Zusammenarbeit mit US-Militär

Krieg steckt in der DNA des Silicon Valley

Im Geschäft mit dem Tod stecken Milliarden US-Dollar. Auch Google erlag der Verlockung, eng mit dem US-Militär zu kooperieren. Doch der Protest vieler Mitarbeiter führte nun zum Ausstieg aus einem Großprojekt.   Von Jannis Brühl