Zusammenarbeit mit US-Militär Krieg steckt in der DNA des Silicon Valley

Im Kampfeinsatz: eine Drohne namens "Reaper" der US-Air-Force in Kandahar, Afghanistan.

(Foto: Josh Smith/Reuters)
  • Zahlreiche Konzerne aus dem Silicon Valley arbeiten eng mit dem US-Militär zusammen. Es geht um Verträge in Milliardenhöhe.
  • Auch Google arbeitete an einem Algorithmus, der Drohnen helfen sollte, Kampfziele automatisch zu erkennen.
  • Der Protest Tausender Google-Mitarbeiter führte nun jedoch dazu, dass der Konzern den Vertrag mit dem Pentagon nicht mehr verlängert.
Von Jannis Brühl

Die Maschinen können sehen, aber sie kapieren noch nicht, was sie da sehen. Irgendwo im Nahen Osten fliegen Drohnen der US-Armee über die Wüste und filmen unermüdlich. Spezielle Software soll auf den Aufnahmen Menschen, Autos, Gebäude und Waffen erkennen - ohne menschliche Hilfe. Aber in den Testflügen lagen die Computer Ende 2017 nur in etwa 60 Prozent der Fälle richtig. Um diese Quote zu verbessern, hat das Verteidigungsministerium Google an Bord geholt - und damit einen Aufstand im Silicon Valley ausgelöst. Wenn es darum geht, Menschen von fliegenden Robotern zerfetzen zu lassen, entdecken auch die zuletzt oft als moralfrei gescholtenen Programmierer aus Kalifornien ihr Gewissen.

Zwölf Angestellte von Google haben aus Protest gegen den Deal gekündigt, 4000 eine Petition unterschrieben, in der gefordert wird, die Zusammenarbeit mit dem Pentagon zu beenden. Darin heißt es, Google habe im "Business des Krieges" nichts verloren. Der Mitarbeiter-Aufstand gegen das sogenannte Projekt Maven ist erfolgreich: Google verzichtet darauf, den Vertrag mit dem Pentagon zu verlängern.

Technologie Diese Technologien können Angst machen
Künstliche Intelligenz

Diese Technologien können Angst machen

Unternehmen überwachen Mitarbeiter und Maschinen entscheiden über Meinungsfreiheit. Vier Beispiele zeigen, dass technischer Fortschritt auch nach hinten losgehen kann.  Von Simon Hurtz

Maven ist auch bekannt als "Team für algorithmische Kriegsführung" im Pentagon. Die Abteilung soll die amerikanischen Kriegssysteme mit künstlicher Intelligenz (KI) stärken. Automatische Bilderkennung soll die mühsame Identifizierung von Objekten am Boden beschleunigen. Auffälligkeiten wie Waffenlager oder Menschen in Panik in diesen Bildern zu finden, kostet viel Zeit. Colonel Drew Cukor, im Verteidigungsministerium zuständig für das Projekt, erklärte 2017: "Wir hoffen, dass am Ende ein Analyst doppelt oder gar dreimal so viel Arbeit wie jetzt erledigen kann."

Im ersten Schritt gehe es darum, 38 Klassen von Objekten maschinell identifizieren zu lassen, "vor allem im Kampf gegen den Islamischen Staat in Irak und Syrien". Dafür nutzt das Pentagon nun Googles Software-Werkzeugkasten namens Tensorflow. Wenige Programme für "tiefes Lernen" sind so weit fortgeschritten. Künstliche neuronale Netze, die aufeinandergeschichtet sind, verinnerlichen, wie eine Katze oder andere Inhalte von Bildern aussehen. Dazu müssen sie mit großen Mengen von Informationen gefüttert und trainiert werden.

Tensorflow ist zwar quelloffen, kann also von jedem genutzt werden. Doch Google stellt dem Pentagon Spezialisten zur Verfügung, um es für die Zwecke des Militärs anzupassen. Das Ministerium zahlt im ersten Jahr fast 70 Millionen Dollar. Der Suchmaschinen-Konzern verfügt nicht nur über hochkarätige Forscher, sondern auch über einen gigantischen Datenschatz. Der ist besonders viel wert, wenn es um Maschinenlernen geht. Je mehr und je genauere Daten, umso besser lernen die Algorithmen. Am Ende sollen die Maschinen selbst eine "Wahrnehmung" entwickeln, die der von Soldaten überlegen ist.

Die UN erwägen, "Killerroboter" zu verbieten

Dass Software auf einem Bild ein Ölfass oder einen Mann zwischen 20 und 30 erkennen kann, mag für sich gesehen harmlos wirken. Die Objekterkennung, die Google nun mit dem Pentagon weiterentwickelt, ist aber für die autonomen Kampfdrohnen der Zukunft essenziell, damit die nicht wahllos durch die Landschaft ballern. Der Streit über Project Maven findet vor dem Hintergrund der Furcht vor vollautomatischen "Killerroboter" statt, die in wenigen Jahren entwickelt sein dürften. Die Vereinten Nationen erwägen, die Waffen prophylaktisch zu verbieten, so wie es die Staatengemeinschaft in den Neunzigern mit tückischen Laserwaffen getan hat, die Soldaten das Augenlicht rauben.

Wie schlechtmöglichstes Timing wirkt da, dass Googles Weltverbesserer-Motto "Don't be evil" im Verhaltenskodex des Konzerns vom ersten zum letzten Satz wurde, als der Konzern das Manifest kürzlich überarbeitete. Dass Maven Ärger auslösen könnte, war hochrangigen Mitarbeitern bewusst. Google machte seine Mitarbeit nicht selbst öffentlich. In der internen Mail einer KI-Expertin vom Herbst, über die die New York Times zuerst berichtete, hieß es: "Vermeidet jegliche Erwähnung von KI, UM JEDEN PREIS."