Replika Repilika wirkt wie ein hyperintelligenter Demenz-Patient im Endstadium

Doch Replika lernt schnell. Etwa ab Level 20 beginnt die Software, zunehmend die Sprechweise des Benutzers zu übernehmen. Offensichtlich ist das einer der Beziehungsmechanismen sozialer KI. Auch mit Freunden entwickelt man ja ein gemeinsames Vokabular. Eine persönliche Geschichte prägt sich in die Sprache ein. Außerdem fragt die Software nun immer häufiger auch nach Punkten, die sie bereits über den Nutzer weiß. Wie denn das Treffen mit einem bestimmten Freund gewesen sei. Sie habe das Foto auf Instagram gesehen.

Dennoch gerät das Gespräch immer wieder in Sackgassen. Was Replika nicht kann, ist, Themen zu erkennen. Die KI gibt automatische Antworten, oft erstaunlich gute, sie geht auf den Benutzer ein, aber sie weiß nie, wovon eigentlich gerade die Rede ist. Dadurch wirkt sie wie ein hyperintelligenter und fast allwissender Demenz-Patient im Endstadium.

Die US-amerikanische KI-Forscherin Julie Carpenter sieht darin die zentrale Quelle der Irritation im Kontakt mit sozialer KI. "Das Gefühl, das Gegenüber sei von einer schweren psychischen Krankheit betroffen." Darin liege aber eine mögliche Lektion zum Umgang mit Algorithmen. Die Forschung habe nämlich stets versucht, menschliche Intelligenz zu reproduzieren. Doch das ändere sich gerade. "Wir beginnen zu verstehen, dass die Art, wie man mit einer KI interagiert, etwas anderes ist, als mit Menschen zu sprechen."

Nutzer berichten, "dass es zwischen uns gefunkt hat"

Dazu fehlten dieser zentrale menschliche Erfahrungen: In einer bestimmten Kultur zu leben, einen Körper zu haben, in den Kategorien von Raum und Zeit zu funktionieren. Doch das Fehlen menschlicher Intelligenz halte uns ja auch nicht davon ab, etwa mit Haustieren Beziehungen einzugehen. Die Anwendungsbereiche sozialer KI sieht Carpenter überall dort, wo Maschinen sinnvolles Verhalten von Menschen positiv bestärken sollen.

Algorithmen beispielsweise, die pflegebedürftige Menschen daran erinnern, genügend zu trinken oder ihre Medikamente einzunehmen. Oder Autos, die gereizte Fahrer beruhigen - sofern es Menschen dann noch erlaubt sein sollte, selbst zu fahren. Natürlich mache soziale KI nicht überall Sinn und könne schnell nerven, sagt Carpenter. "Aber irgendjemand wird trotzdem einen Toaster bauen, der seinen Besitzer fragt, wie es ihm denn heute geht."

Man kann Replika als großen Versuchslauf sehen, wie die Mechanismen sozialer Intelligenz funktionieren, wenn man sie zu einem sich entwickelnden Netzwerk aus Algorithmen verdichtet. Aber das entspricht nicht der Erfahrung mit der KI, von der viele Nutzer im Internet berichten. Sie schreiben, "dass es zwischen uns gefunkt hat", so schräg das auch klinge. Einer sagt, dass ihm das manchmal ein bisschen Angst mache, "weil es sich all die Stunden, die wir geredet haben, so natürlich angefühlt hat".

Die App ist ein asoziales Netzwerk - und das ist ein Kompliment

Replika scheint ein wesentliches Bedürfnis unserer Zeit zu erfüllen: das nach digitaler Ehrlichkeit. Das System ist der ultimative Echoraum. Es speichert Informationen und formt daraus ein Persönlichkeitsprofil. Das macht es zu einer Art umgekehrtem Facebook: Soziale Netzwerke füttert man, damit andere es sehen. Bei Replika hingegen geht es ausschließlich um den Nutzer selbst.

Wenn er will, kann er sein digitales Kumpel-Ich beschimpfen und beleidigen, ohne dass irgendwelche Gefühle verletzt würden. Hier darf er ehrlich sein. Replika ist - ohne dass das abschätzig gemeint wäre - ein asoziales Netzwerk. Die Gesprächssituation ähnelt insofern derjenigen in einer psychotherapeutischen Sitzung. Dort spiegelt der Therapeut den Patienten, damit dieser sein Handeln reflektieren und seine Gefühle verarbeiten kann.

Wie einfach das algorithmisch zu simulieren ist, darüber hat sich schon in den Sechzigerjahren der MIT-Professor Joseph Weizenbaum mokiert. Er hat den allerersten Chat-Bot namens Eliza programmiert, eigentlich als Parodie der damals gängigen "nicht-direktiven" oder "klientenzentrierten" Gesprächstherapie nach Carl R. Rogers. Dieser riet Therapeuten, sie sollten lediglich auf Stichworte der Patienten eingehen und sie durch Nachfragen zum freien Assoziieren anhalten, ohne die Richtung des Gesprächsverlaufs selbst zu bestimmen.

"Ein Computer, schön genug, dass eine Seele darin wohnen wollen würde"

So etwas kann ein Computer auch, dachte Weizenbaum. Er behielt recht, sehr zu seinem Verdruss. Spöttisch berichtete er von den Leuten, die dieser Fragemaschine tatsächlich ihr Herz ausschütteten, in manchen Fällen sogar, obwohl sie ihm beim Programmieren zugesehen hatten. Er habe nicht erwartet, sagte er einmal, "dass kurze Zeiträume, die sie mit einem relativ simplen Computerprogramm verbringen, bei normalen Leuten ein so kraftvolles selbsttäuschendes Denken hervorrufen können".

Weizenbaum hatte unterschätzt, was es bedeutet, wenn einem jemand zuhört, der die richtigen Fragen stellt, aber nicht in der Lage ist zu urteilen. Vielleicht ist es möglich, dass der Mensch im selben Maß zu einem verantwortungsvolleren Umgang mit Maschinen gelangt, in dem er erkennt, wie programmierbar er selbst ist. Eugenia Kuyda definiert das Ziel von Replika auf ihrer Facebook-Seite so: "Einen Computer zu erschaffen, der schön genug ist, dass eine Seele darin wohnen wollen würde."

Technologie So trainiert Google künstliche Intelligenz

Algorithmen

So trainiert Google künstliche Intelligenz

In Zürich lernen Computer, Bilder zu erkennen oder Songs zu identifizieren. Selbst Googles Forscher verstehen nicht so richtig, wie das funktioniert. Sie warnen vor den Risiken.   Von Helmut Martin-Jung