Technologie Intelligenz außer Kontrolle

Menschliche Forscher sollten früh sicherstellen, dass sie die Kontrolle über künstliche Intelligenz behalten, sagen Forscher des KI-Projektes Deepmind.

(Foto: Getty Images)
  • Die Forscher des Projektes "Deepmind" haben drei Problemfelder veröffentlicht, die Entwickler künstlicher Intelligenz ihrer Ansicht nach unbedingt beachten sollten.
  • Es geht vor allem darum, dass die Entwicklungen nicht außer Kontrolle geraten und unerwünschtes Verhalten an den Tag legen.
Von Michael Moorstedt

Wenn er nicht gerade mit obskuren Tweets die Altersersparnisse seiner Kleinaktionäre ruiniert, sorgt sich Tesla-Chef Elon Musk vor allem um die Zukunft der Menschheit. Vor allem künstliche Intelligenz (KI) bereitet ihm Kummer. Die Technologie, wiederholt er immer wieder, sei die "größte Gefahr für unsere Zivilisation" und "viel gefährlicher als Atomwaffen".

"Bekloppt", findet das Yann LeCun, bei Facebook Chefforscher in Sachen KI. In einem solch frühen Stadium der Entwicklung nach Regulierung zu verlangen, zeige vor allem, dass Musk wenig Ahnung von der Materie habe, sagte er vor Kurzem in einem Interview. Musk war jedoch immerhin ahnungsvoll genug, um sehr früh in das Start-up Deepmind zu investieren. Das britische Forschungslabor entwickelt die wohl am weitesten fortgeschrittenen KI-Algorithmen. Auch dort scheint man sich über die Sicherheit und Folgen der eigenen Schöpfungen nicht ganz im Klaren zu sein. Der Übernahme durch den Google-Mutterkonzern Alphabet hat man jedenfalls nur zugestimmt, nachdem die Einrichtung eines Ethikrats für sensible Fragen garantiert worden war.

Doktor KI in Ausbildung

Künstliche Intelligenz wird wird bald ein wichtiges Hilfsmittel für die Medizin sein. Damit stellen sich neue Fragen für Datenschützer und Ethiker. Von Boris Hänssler mehr ...

Weder über die einbestellten Mitglieder noch über die eigentliche Arbeit des Kontrollorgans hat man jedoch bis dato viel erfahren. Bis jetzt. In einem gerade veröffentlichten Paper stellen Deepmind-Forscher nun drei Problemfelder vor, die bei der Entwicklung von sicherer KI beachtet werden müssten, um sicherzustellen, dass gegenwärtige und zukünftige Programme kein unerwünschtes Verhalten entwickeln.

Zunächst müsse es um die richtige Spezifikation gehen. Man müsse sich genau darüber im Klaren sein, was man eigentlich von einer KI wolle und wie man diesen Wunsch formuliere. Schon heute stoßen KI-Entwickler immer wieder auf das Phänomen, dass ihre Algorithmen den Weg des geringsten Widerstands beschreiten, um den größtmöglichen Kosten-Nutzen-Effekt zu erzielen. Weitere Prinzipien betreffen die Robustheit und Verantwortlichkeit zukünftiger künstlicher Intelligenzen. Sie dürften also nicht von außen angreifbar sein, und gleichzeitig müssten ihre Handlungen und Motivationen jederzeit nachvollziehbar sein.

Fünf wichtige Fragen an die KI

Auch wenn solche Sicherheitsmaßnahmen momentan noch unbequem erscheinen, gelte es an die Zukunft zu denken, schreiben die Deepmind-Forscher. Wenn die Entwickler früherer Programmiersprachen ähnliche Prinzipien im Blick gehabt hätten, wäre die Entwicklung der digitalen Welt womöglich langsamer gegangen, man hätte heutzutage aber auch nicht die massiven Sicherheitsprobleme, die den Menschen jeden Tag im Netz begegnen.

Einen weiteren Ansatz für Algorithmenkontrolle beschrieb die Mathematikerin Hannah Fry unlängst in einem Gastbeitrag für den Guardian. Sie erinnerte an den britischen Labour-Politiker Tony Benn, der einst fünf Fragen an die Mächtigen dieser Welt formulierte, Fragen, die man ihrer Meinung nach nicht nur Politikern, sondern auch Computerprogrammen stellen sollte. Sie lauten: Welche Macht hast du? Woher hast du sie? In wessen Interesse übst du sie aus? Wem bist du verantwortlich? Und zuletzt: Wie können wir dich wieder loswerden?

Die Revolution hat längst begonnen

Künstliche Intelligenz stapft nicht in ferner Zukunft als Roboter in unser Leben. Sie ist längst da. Wir müssen uns mit der neuen Technologie vertraut machen - jetzt. Von Helmut Martin-Jung mehr...