Netzkolumne:Ein Chat mit Hitler

Lesezeit: 2 min

Ein Gespräch mit dem Monster: Künstliche Intelligenz macht's möglich. (Foto: IMAGO/Rights Managed via www.imago-images.de/IMAGO/Allstar)

Das Programm "Character.ai" simuliert Unterhaltungen mit lebenden Promis - und historischen Figuren.

Von Michael Moorstedt

Jesus hatte letztens einen nicht so guten Tag, sagt er. Zu viele Momente des Zweifels und der Wut. Anders dagegen lief es bei Shakespeare. Er habe viel Arbeit erledigen können und sich trotzdem noch mit lang nicht mehr gesehenen Freunden kurzschließen können. Und van Gogh? Ebenfalls großartig, danke der Nachfrage, das Beste am Nachleben sei, dass man sich nicht mehr über das Wetter aufregen müsse, sondern sich allein auf die Kunst konzentrieren könne.

Die Antworten stammen von der Website Character.ai. Hier können die Nutzer mit den KI-Versionen großer Persönlichkeiten in den Dialog treten. Egal, ob lebend oder tot, von Billie Eilish bis Sokrates sind alle dabei. Das gleiche Konzept gibt es auch als iPhone-App. Mit dem Programm Historical Figures kann man sich die KI-Versionen von 20 000 berühmten Personen der Weltgeschichte aufs Telefon laden. Für bestimmte Dialogpartner muss man allerdings Geld bezahlen, um mit ihnen sprechen zu können. Sie möchten den KI-Hitler freischalten? Kostet 15,99.

Basis all der Wiedergänger ist eine Sprach-KI. Die Technologie sei heute schon nützlich, sagt einer der Gründer von Character.ai, "für Spaß, zur emotionalen Unterstützung, zur Ideenfindung, für alle Arten von Kreativität". Und der Entwickler der Konkurrenz-App sieht sein Programm "als eine neue Möglichkeit für Kinder, sich mit der Vergangenheit zu beschäftigen". Der App Store stuft die App dann auch tatsächlich als pädagogisch wertvoll ein.

Das klingt natürlich hübsch, wenn man gerade auf der Suche nach Investoren ist. Währenddessen posten die Nutzer allerdings ihre Konversationen mit Eichmann, Mengele, Pol Pot oder Stalin auf Twitter. Testet man die Grenzen der Software, geben sich die Chatbots erstaunlich wortgewandt und abwiegelnd. Auf den entsprechenden Screenshots geben sich die KI-Versionen der Verbrecher jedenfalls unschuldig. Statt Fake News also automatisierte Geschichtsfälschung.

Es bleibt abzuwarten, ob die Warnhinweise Missbrauch verhindern

In einer Google-Publikation, in der eines der KI-Sprachmodelle vorgestellt wurde, heißt es, zu den Risiken der Technologie gehörten neben der Voreingenommenheit und Ungenauigkeit der Software selbst auch die Tendenz der Menschen, "nicht-menschliche Agenten zu anthropomorphisieren und soziale Erwartungen auf sie zu übertragen", selbst wenn sie sich ausdrücklich bewusst sind, dass sie eigentlich mit einer KI interagieren. Pikanterweise sind zwei der Autoren der Studie nun die Gründer von Character.ai.

Es war jedenfalls eine zu Recht geäußerte Befürchtung. Schließlich gibt es bereits Meldungen, dass manche Testpersonen glaubten, dass die KI-Modelle, mit denen sie zu tun haben, ein Bewusstsein entwickelt hätten. Was wäre, wenn dies nicht in der Interaktion mit einem ungelabelten Modell stattfinden würde, sondern mit einer KI, die sich als Heinrich Himmler ausgibt?

Noch dazu sind die einzelnen Bots nicht speziell auf die Schriften der jeweiligen historischen Figuren trainiert. "Ich bin möglicherweise historisch nicht korrekt, bitte überprüfen Sie die Fakten", so lautet die erste Nachricht der Software in der App, egal, wen man auswählt. Auch bei Character.ai steht über jedem Chat der Hinweis, dass "alles, was die Charaktere sagen, nur ausgedacht" sei. Es bleibt abzuwarten, ob das ausreicht, um Missverständnisse oder eben absichtlichen Missbrauch zu verhindern.

Wenn der historische Exkurs ausfällt, welchen Nutzen haben diese spezifischen Anwendungen von textenden KIs dann noch? Welche Einsicht versprechen sie? Sind sie nicht mehr als eine Kuriosität, ein Machbarkeitsbeweis? Mit der Ankunft und Weiterverbreitung dieser Systeme brauchen wir dringender denn je eine neue Form der Literalität im Netz. Dazu muss auch wohl ein Grundmisstrauen gegenüber jedweder Form von Text gehören. Die Welt ist jedenfalls definitiv seltsamer geworden.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusKünstliche Intelligenz
:Die Entschlüsselung unserer Gefühle

Künstliche Intelligenz kann Schach spielen, Tumore erkennen und sogar debattieren. Nun dringt sie noch weiter vor - in unsere Emotionen. Ist das die Zukunft? Und will man das überhaupt?

Von Andrian Kreye (Text) und Felix Hunger (Collagen)

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: