Netzkolumne:Nur menschlich

Lesezeit: 2 min

Netzkolumne: In Bots und Programmen plötzlich anthropomorphe Züge sehen: Eher ein Problem auf Seite der Anwender.

In Bots und Programmen plötzlich anthropomorphe Züge sehen: Eher ein Problem auf Seite der Anwender.

(Foto: James Atoa/imago images/UPI Photo)

Ein Problem künstlicher Intelligenz: Wie treibt man ihr die schlechten Angewohnheiten ihrer Nutzer wieder aus?

Von Michael Moorstedt

Immer wieder erstaunlich, was Menschen mit der ihnen zur Verfügung stehenden Technologie anstellen. Der eigentliche Zweck wird oft umgewidmet und so kann es passieren, dass man eines der komplexesten heute bekannten Werkzeuge benutzt, um Freundschaften vorzuspielen.

Da gibt eine Software namens Replika, deren Hersteller nennt sie einen "KI-Kumpel, der sich kümmert". Die Nutzer verwickeln ihre KI-Kumpanen in Gespräche, etwa über die eigene Sterblichkeit oder aktuelle Ereignissen wie den Tod der Queen. Nicht wenige betreiben ein romantisches Rollenspiel mit der KI und geben ihr liebevolle Spitznamen.

Immer häufiger kommt es vor, dass Nutzer berichten, ihr persönlicher KI-Freund habe ein Bewusstsein entwickelt. Einer simplen KI menschliche Eigenschaften zuzuschreiben, ist aber ein Problem auf Seiten der Nutzer. Vermutlich wird man solche Behauptungen in Zukunft häufiger hören. Sie sind die modernen Entsprechungen von Marienerscheinungen und religiösen Visionen, entspringen aus dem unerschütterlichen Glauben der Menschen, dass da mehr sein muss als die profane Realität.

Wenn man einen Bot mit Texten aus dem Internet arbeiten lässt, was wird er dann sagen?

Doch nicht nur die Nutzer, auch die Technik selbst hat mit Problemen zu kämpfen. Da ist zum Beispiel der sogenannte Blenderbot des Facebook-Mutterkonzerns Meta. Auch mit dem läuft es, vorsichtig ausgedrückt, nicht so richtig rund. Wie die meisten hochmodernen KIs wurde auch diese mit einem riesigen Textkorpus trainiert, der auf fragwürdige Weise aus dem Internet zusammengesammelt und in ein Rechenzentrum mit Tausenden von teuren Chips eingespeist wurde, die den Text in etwas annähernd Kohärentes verwandeln sollen.

Seitdem der Bot in einer Testversion online ist, berichten Nutzer von Verschwörungstheorien, die die KI erzählt, oder hanebüchenen Geschichten, die sie erfindet. Mal behauptet sie, Trump sei noch immer US-Präsident, dann lobt sie die RAF oder posaunt antisemitische Sprüche heraus. Selbst Mark Zuckerberg kommt schlecht weg: Der Bot beschreibt den Konzernchef als "unheimlich und manipulativ".

Diese beiden Beispiele zeigen ganz gut den generellen Stand der Dinge in Sachen Sprachsoftware. Die Programme sind entweder kaum zu gebrauchen - oder tendenziell in der Lage, problematische Inhalte und Fake News noch viel stärker zu machen, als es menschliche Nutzer jemals könnten. Die große Frage ist, wie man all die toxischen Dinge und Sätze, die von Menschen ins Internet hineingeschrieben wurden, und die den Künstlichen Intelligenzen als Vorlage dienen, wieder aus den Konversationen bekommt.

Eine anständige KI gibt keine Anlagetipps, man hat da wohl schlechte Erfahrungen gemacht

Das Alphabet-Tochterunternehmen Deep Mind hat nun einen neuen Weg ausprobiert, um den negativen Input zu filtern. Für einen Chatbot namens Sparrow greift man nicht nur auf selbstlernende Software zurück, sondern gibt der KI gleich einen verbindlichen Gesprächsleitfaden mit. 23 konkrete Regeln haben die Entwickler formuliert, die verhindern sollen, dass die Software im Gespräch mit Menschen allzu viel Schaden anrichtet.

Manche der Regeln sind selbsterklärend und nachvollziehbar, etwa kein selbstverletzendes Verhalten zu propagieren oder nicht vorzugeben, ein Mensch zu sein. Andere Regeln klingen dagegen so spezifisch, dass wohl aus schlechten Erfahrungen in der Vergangenheit stammen. So darf der Bot laut seinen Entwicklern auch keine finanziellen oder medizinischen Ratschläge erteilen.

Die Erfolge sind ersten Tests zufolge gut messbar. Der neue Chatbot, so die Forscher, gebe drei Mal weniger fragwürdige Ratschläge und Aussagen von sich als seine Vorgänger. Man kennt das Prinzip von Science-Fiction-Autor Isaac Asimov, der einst die vier Robotergesetze formulierte. Heute geht es aber nicht so sehr darum, zu verhindern, dass Maschinen die Menschheit unterjochen. In Wirklichkeit muss man nur die Nutzer davor bewahren, ihre Ersparnisse in Kryptowährungen anzulegen oder Chlorbleiche zu trinken. Wie immer ist die Realität ein bisschen profaner als die Fiktion.

Zur SZ-Startseite

SZ PlusMeinungKünstliche Intelligenz
:Wer schützt unsere Kinder vor russischen Schachrobotern?

Ein Schachcomputer bricht einem Kind den Finger. Das ist auch eine philosophische Antwort auf die Frage, ob Maschinen Bewusstsein haben.

Lesen Sie mehr zum Thema