bedeckt München

Digitalisierung:Die Furcht vor einer Superintelligenz ist übertrieben

Bewaffnete Drohne

Kampfdrohnen könnten künftig auch losgelöst von menschlicher Kontrolle zuschlagen

(Foto: Cpl Steve Bain Abipp/dpa)

Computerforscher warnen vor der Entwicklung einer unkontrollierbaren "Superintelligenz". Dabei liegen die Gefahren der KI ganz woanders - etwa bei ziemlich dummen Killerrobotern.

Kommentar von Christoph von Eichhorn

Im Thriller "Daemon" entwirft der US-Autor Daniel Suarez die beklemmende Vision, wie eine künstliche Intelligenz die Weltherrschaft übernimmt. Das über das Internet verbreitete System hackt sich selbständig in Großkonzerne, entwickelt seine eigenen Wirtschaftskreisläufe und macht die Menschen zu Mitspielern eines von ihm vorgegebenen Spiels.

Solch ein Szenario hatten Forscher vielleicht vor Augen, als sie kürzlich im Journal of Artificial Intelligence Research analysierten, wie hoch die Gefahr einer solchen Super-KI tatsächlich ist. Sie argumentieren, dass die Erschaffung einer superintelligenten KI, die den Menschen übertrumpft, zwar weit weg, aber prinzipiell denkbar sei. Diese Intelligenz hätte sodann Zugriff auf alle Daten der Menschheit und könnte alle ans Internet angeschlossenen Maschinen kontrollieren. Das Szenario muss keine Dystopie sein - schließlich könnte sich ein Supergehirn auch im positiven Sinne betätigen, etwa die Klimakatastrophe abwenden oder Krebs heilen. Das Problem ist nur, dass der Mensch diese Superintelligenz kaum kontrollieren könnte, da sind sich die Computerwissenschaftler sicher.

Einer "starken KI" ist man bislang nicht näher gekommen

Solche Gedankenspiele sind derzeit vor allem in der Philosophie populär, und sie lenken ein wenig ab von den eigentlichen Gefahren und Chancen. Ja, die KI-Technologie hat in den vergangenen Jahren erstaunliche Sprünge gemacht. Sie kann bereits heute sicher Autos über Schnellstraßen lenken und die besten menschlichen Gegner in komplexen Strategiespielen wie Poker oder Go schlagen. Allerdings lassen sich diese Erfolge eindeutig dem Bereich der "schwachen KI" zuordnen - darunter versteht man ein Programm, das in einem sehr schmalen Anwendungsbereich, etwa einem Kartenspiel, extrem gut ist, aber keinerlei Tendenz zu einem eigenen Bewusstsein mit eigenen Plänen und Zielen zeigt. Einer solchen "starken KI" ist die Forschung bislang nicht ansatzweise näher gekommen. Das wichtigste Argument gegen die Existenz einer superintelligenten KI liefern die Autoren der Studie sogar selbst: Ein solches Programm müsste Input "so komplex wie der Zustand der Welt" verarbeiten können. Doch selbst Flaggschiffen wie dem "Human Brain Project" gelingt es gerade mal, einen sandkorngroßen Gehirnausschnitt zu simulieren.

Für den Moment sollten sich Ethiker daher lieber auf KIs konzentrieren, die bereits im Einsatz sind: jene, die Medikamente entwickeln, menschliche Sprache erkennen oder Militärdrohnen lenken sollen. Und hier liegt die Gefahr nicht etwa in der Technik, sondern im Menschen, der dem Computer Kontrolle und Entscheidungsbefugnis übergibt. Ein Killerroboter mag im Kern dumm wie eine Kanonenkugel sein, könnte aber dennoch sehr geschickt darin werden, Menschen umzubringen - einfach, weil man ihn dafür programmiert hat.

© SZ
Zur SZ-Startseite
Lotte (vlnr: 0, 1, 6, 7, 10, 13, 15, 18Jahre)

SZ PlusPsychologie
:Warum bin ich so?

Entwicklungsforscher arbeiten mit komplexen Methoden daran, den Einfluss der Kindheit auf den späteren Weg eines Menschen zu entschlüsseln. Über eine Expedition an die Quelle des Ichs.

Von Sebastian Herrmann

Lesen Sie mehr zum Thema