Ethik im IT-Zeitalter:Wenn Waffen das Töten lernen

Lesezeit: 3 min

Eine Militärrakete findet heute dank eines Steuerungscomputers vollautomatisch ihr Ziel. Ist der Programmierer für die Folgen - wie Hunderte Todesopfer - verantwortlich? Ein Gespräch mit Sylvia Johnigk, Friedensaktivistin und Informatikerin, über automatische Waffen, künstliche Intelligenz und den moralischen Zeigefinger.

Lukas Köhler

Sylvia Johnigk berät Unternehmen in IT-Fragen und ist Vorstandsmitglied des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) . Der Verein ging aus der Friedensbewegung der 1980er Jahre hervor, seine Mitglieder beschäftigen sich kritisch mit den ethischen Fragen in der IT-Welt.

Eine ferngesteuerte Kampfdrohne: Moderne Waffensysteme finden ganz ohne menschliches Zutun ihr Ziel. (Foto: dpa)

sueddeutsche.de: Ihr Verein setzt sich für Frieden ein. Was hat das mit Informationstechnik zu tun?

Sylvia Johnigk: Sehr viel. Gerade für das Militär werden immer neue High-Tech-Waffen entwickelt, die ohne jedes menschliche Zutun funktionieren. Automatische Waffensysteme, bei denen einzig der Computer entscheidet, ob und wann auf ein Ziel gefeuert wird. Die Technik macht es möglich, doch sollte immer kritisch hinterfragt werden, ob das, was die Technik kann, auch dem Wohl der Menschen dient. Künftig sollen die Systeme sogar so weiterentwickelt werden, dass sie selbständig "lernen" können.

sueddeutsche.de: Ihnen gefällt diese Zukunftsvision nicht?

Sylvia Johnigk: Viele Programmierer sind begeistert von der Idee eines Roboters, der sich dank seiner einprogrammierten Intelligenz selbst weiterentwickelt. Damit ist aber eine ethische Frage verbunden, nämlich die nach der Verantwortung. Wer übernimmt die, wenn der Roboter jemanden angreift? Bei einem Waffensystem, das von sich aus entscheidet, wer angegriffen wird, weisen viele Informatiker die Verantwortung für die Folgen von sich.

sueddeutsche.de: Wie begründen Programmierer das?

Sylvia Johnigk: Es gibt einen kritischen Film zu der Thematik mit dem Titel "Plug and Pray". Darin erklären einige Informatiker, dass ein Entwickler nicht verantwortlich dafür sein kann, wenn ein Roboter sich selbst weiter entwickelt, je nachdem wie seine Umwelt auf ihn einwirkt. Das wäre angeblich vergleichbar mit dem Entwicklungsprozess eines Kindes: Eltern müssten später ja auch nicht mehr die Verantwortung für die Straftaten ihrer Kinder übernehmen. Solche Roboter mit künstlicher Intelligenz bräuchten dann eine eigene Versicherung und müssten sich vor Gericht durch einen Anwalt verteidigen lassen.

sueddeutsche.de: In einigen Berufen wie in der Medizin gibt es ethische Leitlinien, die allgemein anerkannt sind. Gibt es das für Informatiker nicht?

Sylvia Johnigk: Die Gesellschaft für Informatik (GI) hat einige Leitlinien erarbeitet. Zum Beispiel, dass ein Informatiker keine Überwachungstechnik installiert, ohne die Betroffenen darüber zu informieren. Auch sollte sich ein Informatiker immer auf dem aktuellsten Stand der Technik halten und das auch seinen Mitarbeitern ermöglichen. Gerade die sind häufig überfordert, weil sie nicht die richtigen Fortbildungsmöglichkeiten bekommen. Diese Leitlinien sollen vor allem zur Diskussion anregen. Ethische Regeln sollen ja nicht mit dem moralischen Zeigefinger aufgezwungen werden, sondern es muss ein Bewusstsein entstehen für die Verantwortung, die man auch als Informatiker hat.

sueddeutsche.de: Auswirkungen von wissenschaftlichen Entwicklungen auf die Menschen behandelt ja auch der Deutsche Ethikrat, in dem vor allem Biologen, Historiker und Mediziner sitzen. Müsste nicht auch ein Experte für Informationstechnik dem Kreis angehören?

Sylvia Johnigk: Das wäre gut. IT-Themen gehören auf die Agenda des Ethikrates, denn die IT-Welt hat die moderne Gesellschaft nachhaltig verändert. Informationen werden heute völlig anders verarbeitet als noch vor 40 Jahren. Fast jeder besitzt inzwischen ein Smartphone oder bewegt sich regelmäßig im Internet - dem Einfluss dieser Technik kann sich kaum noch jemand entziehen.

sueddeutsche.de: Was sind die drängendsten Fragen?

Sylvia Johnigk: Neben der Frage der Verantwortlichkeit auch Themen wie Privatsphäre und Datenschutz. Oder auch das Recht auf Information, das doch ein Menschenrecht sein sollte, aber immer häufiger zwischen den Interessen großer Konzerne und der Politik zerrieben wird. Die diskutieren nämlich viel mehr über Möglichkeiten, das Internet einzuschränken, zu regulieren oder zu überwachen.

sueddeutsche.de: Politiker sehen ja oft das anonyme Netz als Gefahr an. Widerspricht diese Anonymität nicht ethischen Grundregeln wie Ehrlichkeit und Wahrheit?

Sylvia Johnigk: Meiner Meinung nach erhöht die Anonymität im Internet den Wahrheitsgrad. So kann ein Whistleblower ohne Furcht vor Verfolgung Dinge ans Licht bringen, die andere lieber geheim gehalten hätten. Machthaber oder auch Unternehmen sehen darin natürlich eine Gefahr, denn es bricht schlicht ein Teil ihrer Macht weg: Ihr Einfluss wird geringer.

sueddeutsche.de: Ist es dann ethisch korrekt, wenn Hackergruppen geheime Daten ausspähen und veröffentlichen?

Sylvia Johnigk: Das ist eine Wertungsfrage, die sich nicht ganz einfach beantworten lässt. Allgemein werden solche Maßnahmen für gut befunden, wenn dadurch etwa gegen eine barbarische Diktatur protestiert wird. Aber auch in einem demokratischen Staat können so Dinge ans Licht kommen, die Politiker lieber vertuscht hätten. Kriminelle Aktivitäten, etwa Daten zu stehlen, um aus diesen dann Profit zu schlagen, sind mit ethischen Überlegungen aber nie zu rechtfertigen.

© sueddeutsche.de - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: