Apokalyptiker haben schon viele dramatische Untergangs-Szenarien skizziert: Hämorrhagische Pandemien, die so schnell wie eine Grippewelle um den Erdball jagen. Der Einschlag eines Killerkometen, der die Atmosphäre verdunkelt, so dass alle Säugetiere verhungern und Kakerlaken die Weltherrschaft übernehmen.
Eine interessante neue Variante hat sich nun der britische Philosoph Nick Bostrom ausgedacht: Die Geschichte der Menschen könnte enden, weil ein von ihnen geschaffener Supercomputer auf die Idee kommt, das Ziel aller Existenz sei es, möglichst viele Büroklammern zu fertigen. Das Gerät würde daraufhin alle Ressourcen dieser Erde auf die Produktion von Büroklammern verwenden - einschließlich der Atome, aus denen die Menschen gefertigt sind.
Vermutlich hat Bostrom mit diesem absurden Beispiel seinem ernst gemeinten Anliegen eher geschadet. Denn als Direktor des Future of Humanity Institute an der University of Oxford will er tatsächlich nur vor einem Trend warnen: der rasanten Entwicklung der künstlichen Intelligenz (KI). In den letzten Monaten haben sich Größen wie Stephen Hawking, Bill Gates oder Tesla-Chef Elon Musk auf ähnliche Weise geäußert.
Künstliche Superintelligenz könnte Menschen in den Zoo sperren
Unbestritten ist dabei zwar längst, dass die KI-Forschung aus ihrem jahrelangen Dornröschenschlaf erwacht ist. Selbst lernende Software wird die Produktivität erhöhen und die Erkenntnishorizonte erweitern. Sie wird die Arbeitsmärkte erschüttern, weil sie einen großen Teil der Wissensarbeit übernehmen wird.
Doch die Befürchtungen von Mahnern wie Bostrom gehen weiter. Sie halten es nicht für ausgeschlossen, dass im Laufe des nächsten Jahrhunderts eine künstliche Superintelligenz entsteht, die dem Menschen überlegen ist. Sie könnte das Kommando über Kriegsroboter übernehmen und die Menschen in artgerechter Nähe zum Schimpansen in den Zoo sperren.
Wissen, wo man den Stecker ziehen kann
Mehr als eine absurde Science-Fiction-Dystopie, die eher im Kino bleiben sollte? Recht haben Kritiker, die darauf verweisen, dass nicht im Geringsten absehbar ist, dass Computer eigene Interessen oder gar ein Bewusstsein entwickeln.
Andererseits ist das auch gar nicht nötig, um autonome Roboter zu entwickeln, die bedrohlich werden könnten. Bereits jetzt simulieren Algorithmen Emotionen in Computern, ohne dass die Rechner selbst etwas fühlen. Auf ähnliche Weise ließen sich auch Interessen einpflanzen, die sich dann verselbstständigen.
Niemand muss deshalb zum Maschinenstürmer werden und auf die Vorteile fortgeschrittener Computertechnik verzichten. Aber es ist an der Zeit, die KI-Forschung ebenso unter Sicherheitsaspekten zu beobachten wie andere Hochtechnologien auch. Und immer sollte einer wissen, wo sich der Stecker ziehen lässt.