Wenn führende Forscher und Entwickler ein Moratorium für die Weiterentwicklung der künstlichen Intelligenz fordern, ist das nicht der übliche Alarmismus. So veröffentlichte eine Projektgruppe, zu der unter anderen die Universitäten von Stanford, Yale, Oxford und Tohoku gehören, sowie Entwickler von Microsoft, Google und dessen KI-Firma Deep-Mind, eine Arbeit mit dem Titel "The Malicious Use of Artificial Intelligence" ("Bösartige Nutzungen künstlicher Intelligenz", im Internet verfügbar).
Im Unterschied zu den oft prominenten Vertretern der KI-Panik haben sich die Forscher bei ihrem Projekt ausschließlich auf Technologien konzentriert, die es entweder schon gibt, oder die nach dem aktuellen Stand der Entwicklung in den kommenden fünf Jahren anwendbar sein werden. Bisher gehörte ein großer Teil der KI-Kritik eher in die literarischen Sphären der dystopischen Science-Fiction. Solche Szenarien stammen zum Beispiel vom Physiker Stephen Hawking, dem Philosophen Nick Bostrom und dem Unternehmer Elon Musk - keiner von ihnen hat sich jemals wissenschaftlich an der Entwicklung von KI beteiligt.
Eines der konkreten Beispiele, das die Forscher nennen, ist die Entwicklung der Bilderkennung und -generierung durch KI. Die war 2014 noch auf dem Stand, dass sie nur grauschleierige Phantombilder schaffen konnte. Inzwischen ist es mit Deep-Fake-Technologien möglich, Gesichter mit glaubhafter Mimik in Videos auf fremde Körper zu übertragen. Das wiederum sei angesichts der jüngeren Geschichte politischer Manipulationen eine Form destruktiver KI-Anwendung, der man nur schwer Einhalt gebieten kann.
Die Möglichkeiten solchen Missbrauchs reichen jetzt schon und in naher Zukunft von ungeahnten Dimensionen des Hacking (nicht nur von Rechnern, sondern auch von KI-getriebenen Systemen wie Drohnen, Fahrzeugen, Robotern oder autonomen Waffen), bis zu einem Wettrüsten in allen Fragen der Cyber-Sicherheit, die sie in digitale, physische und politische Sicherheit unterteilen. Lösungsvorschläge hat die Projektgruppe auch: Eine Zentralisierung künstlicher Intelligenzen wäre eine Möglichkeit, Missbrauch vorzubeugen. Sie erinnert an die Garmischer Nato-Konferenz von 1968, bei der Grundlagen zur Software-Entwicklung festgelegt wurden, die heute noch Norm sind, sowie an das Moratorium, das die biologische Forschung 1975 in Asilomar ausgerufen hat (und das derzeit in der Genforschung als Grundlage für neue Selbstbeschränkungen genutzt wird). Die Forscher geben sich sogar optimistisch. Die Entwicklung der KI sei an einem Punkt, an dem man noch gemeinsam eingreifen könne. Aber das müsse eben jetzt geschehen. Jetzt!