Nachrichten aus dem Netz:Wer liest, stiehlt nicht

Wie bringt man Computern soziale Kompetenz, Wertebewusstsein und moralische Sensibilität bei? Mit Geschichten natürlich. Beim KI-Projekt von Facebook steht deshalb Tolkiens "Der Herr der Ringe" auf dem Lehrplan.

Von Michael Moorstedt

Wie bringt man der Software einen Sinn für die Welt bei? Wie Kleinkindern: indem man ihnen Geschichten erzählt und sichergeht, dass sie deren Moral verinnerlichen. Das Team, das derzeit bei Facebook an künstlicher Intelligenz forscht, greift dabei zu klassischer Jugendliteratur: Es lässt sein sogenanntes Memory Network den "Herrn der Ringe" lesen.

Nach ein paar Probedurchgängen ist die Software in der Lage, einfache Fragen zum Plot von Tolkiens Trilogie zu beantworten: Wo befindet sich der "eine Ring"? Wohin ist Frodo unterwegs? Und was ist eigentlich mit Bilbo los? Was zunächst klingt wie eine Fingerübung verschrobener Informatiker, ist in Wahrheit fundamental wichtig. Das Programm, ein sogenanntes künstliches neuronales Netzwerk, versteht die Beziehungen von Personen, Dingen und Zeit. Indem es Fotos, Status-Updates, Ortsmarkierungen, Videos und andere Inhalte in Vektoren wahrnimmt und gruppiert, könne es, wie es der Projektleiter Yann LeCun ausdrückt, "logisches Denken durch Algebra ersetzen".

Das Forschungsfeld mag zwar absolute Avantgarde sein, trotzdem verfolgt das Facebook-Team ein vergleichsweise triviales Ziel: Das Nutzererlebnis noch reibungsloser zu gestalten. Wenn das System den Kontext der auf Facebook geteilten Inhalte versteht, dann zeigt es dem Nutzer Dinge, die ihm wichtig sind. Der Newsfeed kann so noch besser auf seine Interessen abgestimmt werden, die Suchfunktion noch genauere Ergebnisse liefern.

Forscher am Georgia Institute for Technology haben ein ambitionierteres Ziel. Sie wollen einem Computerprogramm Moral mithilfe von Literatur nahebringen, es Normen und sozial angemessene Codes lehren. Ein Verständnis für Geschichten, so die Informatiker Mark Riedl und Brent Harrison, helfe dem Computer, sein Ziel zu erreichen, ohne dabei Menschen zu schaden. Das ist schließlich seit Isaac Asimov die große Sorge - dass die KI-Kreatur irgendwann gegen ihre Schöpfer aufbegehrt. Zuletzt warnten kluge Menschen wie Stephen Hawking, Elon Musk oder Bill Gates vor noch klügeren Maschinen, denen jeglicher Sinn für Moral abgeht.

Riedl und Harrison verdeutlichen das Problem mit einer simplen Geschichte, in der es um das Abholen eines Medikaments aus einer Apotheke geht. Am schnellsten geht das, indem man den Apotheker überwältigt und sich mit der Ware aus dem Staub macht. Langwieriger, aber dafür sozial akzeptiert ist es, sich anzustellen und zu warten, bis man an der Reihe ist.

Die KI erwägt nun in abertausend Simulationen unterschiedliche Möglichkeiten, um ans Ziel zu kommen. Dabei wird sie für diejenige belohnt, die der zweiten Variante in der Geschichte ähnelt. Mit der Zeit lerne die künstliche Intelligenz so, bestimmte Verhaltensweisen zu bevorzugen und andere abzulehnen. Sie verzichtet nicht aufs Stehlen, weil man es ihr im Programmcode vorgeschrieben hätte, sondern weil sie selbst errechnet hat, welches Verhalten gesellschaftlich akzeptabel ist. Ihr Programm haben die Forscher übrigens Quijote genannt, nach Cervantes' tragischem Helden. Auch der hat sich seine Welt ja durch Geschichten erschlossen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: