Künstliche Intelligenz Die Legende von Facebooks wildgewordenen Terminator-Bots

Facebook erforscht auch, wie Software mit Menschen kommunizeren kann.

(Foto: REUTERS)

Eine Geschichte macht die Runde: Zwei Chat-Programme von Facebook entwickeln eine eigene Sprache und versetzen ihre menschlichen Herren in Panik. In Wahrheit aber muss die Apokalypse noch warten.

Von Michael Moorstedt

Beginge man fiktive Jahrestage, dann wäre der vergangene Freitag das 20. Jubiläum einer der beliebtesten Apokalypsen der Filmgeschichte gewesen. Am 4. August 1997 nämlich entwickelt in James Camerons Terminator-Filmen eine künstliche Intelligenz namens Skynet ein Bewusstsein. Kurze Zeit später ist von der Menschheit nicht mehr viel übrig - alles hochgegangen in nuklearem Feuer.

Passend zum makabren Gedenktag geisterten in der vergangenen Woche Dutzende Berichte durchs Netz: Im Facebook-Labor für Künstliche Intelligenz (KI) hätten zwei Programme eine eigene Sprache entwickelt und sich darin unterhalten. Die Forscher, war weiterhin zu lesen, hätten daraufhin "in Panik" "den Stecker gezogen", um "die KI zu töten". Natürlich kam kein einziger Artikel ohne ein Foto der bedrohlich grinsenden Chrom-Skelette aus den Terminator-Filmen aus.

Die gefühlte Bedrohungslage war also wieder einmal recht hoch. Kein Wunder, lieferten sich doch zuletzt Facebook-Gründer Mark Zuckerberg und Elon Musk, Tesla-Chef und außerdem maßgeblicher Geldgeber des KI-Forschungsinstituts OpenAI online einen öffentlichen Schlagabtausch darüber, was die Gefahren von künstlicher Intelligenz anbelangt. Für Zuckerberg stellt KI die Lösung von so gut wie allen Problemen der Menschheit dar, Musk hält sie eher für das allergrößte Problem.

Doch eigentlich beweist das Facebook-Experiment nicht, wie nahe wir auch schon in der echten Welt vor der Herrschaft der Maschinen stehen, sondern offenbart vielmehr die immer noch sehr engen Grenzen der heutigen KI-Forschung. Ausgangslage des Experiments, das im übrigen keineswegs in Panik gestoppt wurde, war die Frage, ob man Chatbots beibringen könnte, mit Menschen zu verhandeln. Das wäre eine ziemlich praktische Sache, gerade in Sachen Jobauslagerung in Richtung Maschinen.

Für das Experiment wurden zwei sogenannte Bots mit den Namen Bob und Alice dazu programmiert, eine Sammlung von virtuellen Objekten - Hüte, Bälle und Bücher - untereinander aufzuteilen. Das funktionierte zunächst auch recht gut. Bis die Programme anfingen, sich in seltsamen Sätzen zu unterhalten. Aus "Ich will den Hut" wurde dann "Bälle haben null für mich für mich für mich für mich für mich für mich für mich für mich für". Dem ging das Bonmot "Ich kann ich ich alles andere" voraus. Trotzdem wurde die Verhandlung erfolgreich beendet.

Die Forscher stoppten den Testlauf. Aber nicht aus Angst.

Der Ursprung dieser "neuen Sprache" liegt in der Art und Weise, wie die Bots programmiert waren. Man setzte auf eine Methode namens Reinforcement Learning. Stark vereinfacht gesagt geht es darum, dass die Software immer dann eine virtuelle Belohnung erhält, wenn sie eine bestimmte Aktion richtig vollzieht, in diesem Fall also Verhandeln. Es ist sozusagen das digitale Äquivalent einer Dressur.

In dem Experiment wurde jedoch nur der positive Ausgang der Verhandlung belohnt und nicht deren Verständlichkeit. Für die Programme war das Kauderwelsch schlichtweg effizienter. Und genau wie ein Junkie versuchen sie, den Belohnungseffekt zu maximieren. Die Facebook-Forscher stoppten daraufhin den Testlauf. Nicht weil er ihnen Angst einjagte, sondern weil sie ihn für gescheitert hielten.

Immerhin war die Aufgabe der Bots ja, nicht untereinander, sondern mit Menschen zu kommunizieren. Apokalypse vertagt.