Technologie:Führende Forscher warnen vor künstlicher Intelligenz

Künstliche Intelligenz

Gegen Schachcomputer haben Menschen längst keine Chance mehr. Was kommt als nächstes?

(Foto: agsandrew - Fotolia)
  • Eine Gruppe hochrangiger Experten warnt vor den Gefahren für die Gesellschaft, die durch künstliche Intelligenz entstehen können.
  • Zu der Gruppe gehören unter anderen Forscher der Universitäten Stanford, Yale, Oxford und Tohoku sowie Entwickler von Microsoft und Google.
  • Die Entwicklung der KI sei an einem Punkt, an dem der Mensch noch eingreifen könne - wenn Politiker, Forscher und Unternehmer zusammenarbeiten.

Von Andrian Kreye

Wenn führende Forscher und Entwickler ein Moratorium für die Weiterentwicklung künstlicher Intelligenz (KI) fordern, ist das nicht der übliche Alarmismus. So veröffentlichte eine Projektgruppe solcher Fachleute eine Arbeit mit dem Titel "The Malicious Use of Artificial Intelligence" ("Bösartige Nutzungen Künstlicher Intelligenz"). Zu der Gruppe gehören unter anderen die Universitäten Stanford, Yale, Oxford und Tohoku sowie Entwickler von Microsoft, Google und dessen Tochterfirma, des momentan führenden KI-Unternehmens DeepMind.

Im Unterschied zu den oft prominenten Vertretern der KI-Panik haben sich die Forscher bei ihrem Projekt ausschließlich auf Technologien konzentriert, die es entweder schon gibt, oder die nach aktuellem Stand der Entwicklung in den kommenden fünf Jahren anwendbar sein werden. Bisher gehörte ein großer Teil der KI-Kritik eher in die literarischen Sphären der dystopischen Science Fiction. Solche Szenarien stammen zum Beispiel vom Physiker Stephen Hawking, dem Philosophen Nick Bostrom und dem Unternehmer Elon Musk - keiner von ihnen hat sich jemals wissenschaftlich an der Entwicklung von KI beteiligt.

Eines der konkreten Beispiele, das die Forscher in ihrem Aufruf nennen, ist die Entwicklung der Bilderkennung und -generierung durch KI. Die war 2014 noch auf dem Stand, dass sie nur grauschleierige Phantombilder schaffen konnte. Inzwischen ist es mit so genannten Deep-Fake-Technologien möglich, Gesichter mit glaubhafter Mimik in Videos auf fremde Körper zu übertragen. Das wiederum sei angesichts der jüngeren Geschichte politischer Manipulationen eine Form destruktiver KI-Anwendung, der man nur schwer Einhalt gebieten könne.

Die Möglichkeiten solchen Missbrauchs reichen schon jetzt und in naher Zukunft von ungeahnten Dimensionen des Hacking (nicht nur von Rechnern, sondern auch von KI-getriebenen Systemen wie Drohnen, Fahrzeugen, Robotern oder autonomen Waffen), bis zu einem Wettrüsten in allen Fragen der Cyber-Sicherheit, die sie in digitale, physische und politische Sicherheit unterteilen.

Lösungen schlagen die Experten auch vor. Künstliche Intelligenzen zu zentralisieren, wäre eine Möglichkeit, Missbrauch vorzubeugen. Sie erinnern aber auch an die Garmischer Nato-Konferenz von 1968, bei der Grundlagen zur Software-Entwicklung festgelegt wurden, die heute noch Norm sind, und an das Moratorium, das die biologische Forschung 1975 im kalifornischen Asilomar ausgerufen hat (und das derzeit in der Genforschung als Grundlage für neue Selbstbeschränkungen genutzt wird). Die Mahner geben sich sogar optimistisch: Die Entwicklung der KI sei an einem Punkt, an dem man noch gemeinsam eingreifen könne. Aber das müsse eben jetzt geschehen. Jetzt!

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: