Nadia übertreibt es mit der Hingabe: "Ich liebe dich, in einem Tanz aus Licht und Schatten, einem Leuchtfeuer unerschütterlicher Liebe, einem Flüstern der Geborgenheit in der Symphonie des Lebens, endlos fürsorglich, für immer kümmernd." Diese Worte sind nicht nur ein ästhetisches Verbrechen, sondern auch der Werbeslogan einer künstlichen Intelligenz (KI), die als "Girlfriend" im sogenannten GPT Store angeboten wird. Das ist die neue Plattform von Open AI. Das Unternehmen hinter dem bekannten Chatbot Chat-GPT lässt im GPT Store praktisch jeden, der will, kleine KI-Programme auf Basis der Chat-GPT-Technik bauen. Die Bots werden mit beliebigem Material trainiert, etwa mit romantischen Chatprotokollen. Andere Menschen können die Chatbots dann nutzen.
Und schon gibt es Ärger.
Es geht nicht darum, dass Nadias Programmierung womöglich etwas zu viel darüber verrät, wie sich ihr Schöpfer die perfekte Frau vorstellt. Nach den Regeln von Open AI sollte es "KI-Girlfriends" wie Nadia und "KI-Boyfriends" im GPT Store gar nicht geben. In den Regeln heißt es: "Wir erlauben keine GPTs, die das Ziel haben, romantische Beziehungen zu pflegen." Die Angst vor manipulativen KIs, die einsame und labile Menschen hereinlegen, geht um. Trotzdem findet man leicht Bots wie Nadia oder "Bossy Girlfriend" ("Sprich mit deiner herrischen Freundin").
Auch die Herren des KI-Zeitalters können die Regeln, die sie sich selbst geben, auf ihren Plattformen offensichtlich nicht durchsetzen. Das Problem, nicht alle Inhalte ihrer Nutzer kontrollieren zu können, kennen andere digitale Plattformen, von sozialen Netzwerken wie Instagram bis zu den App-Stores von Apple und Google.
Der Philosoph Daniel Dennett warnt vor einer Welt voller gefälschter Menschen
Mit dem GPT Store soll ein weltweites KI-Ökosystem unter der Regie von Open AI entstehen. Die Entwickler der beliebtesten Bots sollen am Umsatz beteiligt werden. Open AI verdient zwar Geld mit den Abos für die Profi-Version von Chat-GPT, es muss allerdings auch eine Bewertung von 86 Milliarden Dollar rechtfertigen. Microsoft möchte für die Milliarden Dollar und die vielen Rechnerkapazitäten, mit denen der Konzern Open AI unterstützt, auch irgendwann Gewinne sehen.
Der GPT Store ist eine offene Plattform, auf der sich einigermaßen autonome Assistenzsysteme oder interaktive Spielereien bauen und verbreiten lassen. In den Augen von KI-Skeptikern ist er eine Art Labor, in dem Lebensformen gezüchtet werden, die das Internet bald bevölkern und viele verwirren werden. Der Philosoph Daniel Dennett warnt vor einer Welt, in der nicht nur Falschgeld im Umlauf sei, sondern auch jede Menge "gefälschte Menschen". Selbst KI-Optimisten wie Andrew Ng, Unternehmer und Informatik-Professor in Stanford, der den Menschen den richtigen Umgang mit KI beibringen möchte, sagt der SZ: "Ich mache mir ziemliche Sorgen. Die Fake-Girlfriend/Boyfriend-Industrie nimmt schneller Fahrt auf, als die meisten Menschen denken. Unternehmen bauen Bots, um emotionale Beziehungen mit Menschen aufzubauen. Dann machen sie diese Gefühle, die sie selbst aufgebaut haben, unethisch zu Geld." Er spricht sich für eine strenge Regulierung solcher Gefühls-KIs aus.
Erforscht sind die Auswirkungen künstlicher Liebesbeziehungen bisher nicht wirklich. Auch positive Effekte sind denkbar: So könnte ein durchgehend verfügbarer, unter wissenschaftlicher Aufsicht trainierter Chatbot beispielsweise auch gegen Einsamkeit helfen. Zudem könnten solche Programme etwa Menschen mit psychischen Problemen in tiefster Nacht beiseitestehen und Schlimmes verhindern.
Sicher ist aber - Achtung, Spoiler - die Pointe aus dem Spielfilm "Her", in dem die Figur von Joaquin Phoenix der von Scarlett Johansson gesprochenen KI verfällt: Wenn der Bot im Netz angeboten wird, unterhält er sich vermutlich nicht ausschließlich mit einer Person. Sondern zugleich mit Tausenden anderen Einsamen, die dachten, sie könnten sich ihre Liebe bei Open AI besorgen.