AI-Sachbuch "Was euch zu Menschen macht":Verdächtig klug

Lesezeit: 5 min

AI-Sachbuch "Was euch zu Menschen macht": Frage: "Wie wächst die Liebe?" Antwort KI: "Indem Du gibst."

Frage: "Wie wächst die Liebe?" Antwort KI: "Indem Du gibst."

(Foto: agsandrew/imago/Panthermedia)

Iain Thomas und Jasmine Wang haben der künstlichen Intelligenz GPT-3 ein paar ganz große Fragen gestellt - und erstaunliche Antworten bekommen. Nur - kamen die wirklich bloß von der KI?

Von Sarah Spiekermann

Im Diederichs-Verlag ist ein Buch erschienen, das die Runde machen wird: Primär ist es von einer künstlichen Intelligenz geschrieben; einem künstlichen Wesen also, das als Co-Autor neben Menschen auftritt. Iain Thomas und Jasmine Wang haben den Band mit dem Titel "Was euch zu Menschen macht" herausgegeben. Darin gibt das KI-Wesen ohne Namen erstaunlich weise Antworten auf die ganz großen Fragen der Menschheit, etwa auf die Fragen "Warum leiden wir?", "Wie schließe ich Frieden mit meinem Körper?" oder "Wie weiß ich, ob ich erfolgreich bin?". Aber ist es überhaupt legitim, bei der KI von einem "Wesen" zu sprechen? Oder dichtet man dem Computer, auf dem das GPT-3-Sprachmodell läuft, damit ein Sein an, das es so gar nicht gibt?

Ganz sicher sei vorangestellt: Die Antworten, die die von Thomas und Wang auf ausgewählte Weisheitstexte hin trainierte KI gibt, sind wirklich verblüffend klug. Klug genug, um jeden einigermaßen gebildeten Menschen zu inspirieren. Ein Beispiel: Auf die Frage der menschlichen Autoren "Warum leiden wir?" antwortet die KI: "Leid entsteht aus der Illusion, dass wir abgetrennt sind vom Universum"; auf die Frage "Wie wächst die Liebe?" antwortet die KI "Indem du gibst". Manchmal gibt die KI auch sehr lange Antworten, einen ganzen Paragrafen oder eine Seite. Zum Beispiel auf die Frage: "Kann der Mensch gut sein?" Antwort KI: "Gutsein heißt in Harmonie mit dem Universum sein. Harmonie ist Tugend, Tugend ist gut, und gut ist der natürliche Weg des Universums. Die natürliche Art funktioniert."

Quelle der KI-Antworten sind unter anderem Schnipsel aus Bibel, Thora oder Koran

Quelle dieser Antworten sind "ausgewählte Auszüge" aus großen Texten der Menschheit, unter anderem aus der Bibel, der Thora oder dem Koran. Die Autoren haben eine nicht transparent gemachte Anzahl von Seiten aus diesen Texten genommen und das auf Satzbildung trainierte GPT-3-Modell dazu benutzt, daraus Antworten ziehen zu lassen. Wobei "Antworten ziehen" wohl nicht präzise genug ausgedrückt ist: Genau genommen ordnet die KI Buchstabengruppen nach einem Wahrscheinlichkeitsmodell hintereinander an oder es entscheidet auf Basis von Wortgruppen, was die wahrscheinlich sinnvollste nachstehende Wortgruppe sein sollte.

Wie genau die Autoren das GPT-3-Sprachmodell für ihre Zwecke konfiguriert haben, um so erstaunliche Antworten zu erhalten, wie sie im Buch stehen, wurde leider nicht offengelegt. Es ist deshalb auch unmöglich zu wissen, ob nicht vielleicht (manchmal oder oft?) ganze Sätze aus den Ursprungswerken zur Antwort gewählt wurden, einfach weil die Wahrscheinlichkeit für die KI, eine gute Antwort zu liefern, dann am höchsten ist, wenn sie sich gleich eine ganze Sequenz aus einem Ursprungstext schnappt. Aber das ist nur technisch-kritische Spekulation, denn in der Tat verblüfft die Schönheit der KI-Antworten den Leser so sehr, dass man selbst als KI-Kritiker der Vermarktung des Buches als "Weisheitstext" geneigt ist nachzugeben.

AI-Sachbuch "Was euch zu Menschen macht": GPT-3: Was euch zu Menschen macht - Antworten einer künstlichen Intelligenz auf die großen Fragen des Lebens. Hg. Iain Thomas und Jasmine Wang. Aus dem Englischen von Judith Elze. Diederichs Verlag, München 2022. 208 Seiten, 18 Euro.

GPT-3: Was euch zu Menschen macht - Antworten einer künstlichen Intelligenz auf die großen Fragen des Lebens. Hg. Iain Thomas und Jasmine Wang. Aus dem Englischen von Judith Elze. Diederichs Verlag, München 2022. 208 Seiten, 18 Euro.

(Foto: Diederichs Verlag)

Was die menschlichen Co-Autoren des Buches durchaus transparent machen, ist, dass sie die Antworten der KI überarbeitet haben. Sie haben also getan, was den menschlichen Geist und seine intelligente Kreativität letztlich von KI unterscheidet: Sie haben das Wesentliche vom Unwesentlichen getrennt, etwa Antwortpassagen der KI gelöscht, die nicht passten, und indem sie so lange in den möglichen Antwortoptionen gesucht haben, bis sie eine passende gefunden hatten. Zudem haben sie durch Umbrüche den künstlichen Texten Takt gegeben. Und wo die Antwort dennoch nicht zur ursprünglichen Frage passte, wurde die Frage eben umformuliert und so Harmonie zwischen Fragen und Antworten erzeugt. Kurz: Es wurde konzeptualisiert und improvisiert, sodass Bedeutung entstehen konnte.

Vielleicht kann man die Arbeit von Thomas und Wang daher eher mit einer Kunstperformance vergleichen, bei der zwei Künstler in einer Höhle Steine sammeln und einen Kunstraum aus lauter schönen Steinhäufchen bauen. Die Höhle, die sie sich dafür ausgesucht haben, ist eine ganz besondere: Sie ist voller wunderschöner Amethysten. Dann suchen sie sich unter den vielen schönen herumliegenden Amethysten die allerschönsten aus, ordnen sie und arrangieren sie im Raum neu. Und dann erklären sie die Höhle selbst zum Künstler.

Es gibt einen Unterschied, den man nicht aus dem Blick verlieren sollte

Die Idee, die Höhle zum Künstler zu machen, also die Natur als Künstler zu sehen, hat etwas Faszinierendes. Sie weist über den Menschen hinaus, ist Ausdruck einer Suche nach Schaffenskraft jenseits alles Menschlichen. Genauso suchen Thomas und Wang in dem GPT-3- Sprachmodell nach nicht-menschlicher Schaffenskraft. Es gibt nur einen Unterschied, den man nicht aus dem Blick verlieren sollte: Während der Mensch zum Urmaterial Amethyst nichts beigetragen hat und stattdessen sein Haupt senken muss vor der von Gott geschaffenen Natur, sind die Textbausteine, mit denen GPT-3 arbeitet, allesamt aus menschlicher Feder. Und der Grund, weshalb das Buch so schön zu lesen und zu bestaunen ist, ist, dass das Urmaterial aus menschlicher Feder hier von so besonders großer Schönheit und Weisheit sind.

Etwas befremdlich auch: Sehr viele menschliche Weisheitstexte sprechen von der Liebe zu Gott (oder Jahwe oder Allah). Durch das Vertrauen in eine heilige und leitende Essenz vermittelt die menschliche Weisheitslehre der vergangenen Jahrtausende über Religionen hinweg die Liebe, die die Autoren in ihrem Buch nun der unbelebten KI-Natur zuschreiben. Der Trick: Sie ersetzten in ihrem Datensatz das Wort für "Gott" einfach durch "Universum" und haben damit einen atheistischen "Bias" in die KI eingepflanzt, den sie im Buch als ihr Bemühen um Neutralität verkaufen. Atheismus ist allerdings keinesfalls neutral. Solche Veränderungen des Datensatzes einer KI sind wissenschaftlich-ethisch hoch umstritten, auch in anderen Bereichen des KI-Einsatzes.

Es droht auf diese Weise letztlich eine soziokulturell voreingenommene Verfälschung der ursprünglichen Faktenbasis, weshalb die allerneuesten Versionen des GPT-Sprachmodells, wie dieser Tage etwa "Chat GPT", die ursprünglichen Daten nicht einfach ersetzen, sondern etwas betreiben, das "Reinforcement Learning from Human Feedback" genannt wird, sie sollen also von menschlichem Feedback lernen. Dabei soll die KI Hassrede und Vorurteile erkennen und neutralisierend antworten, ohne dass das Trainingsmaterial direkt verfälscht wird.

Von allergrößter Tragweite ist allerdings auch noch ein anderes Problem: die Ich-Perspektive, aus der Thomas und Wang die KI sprechen lassen. So "staunt" die KI und sagt, sie "wollte ein Buch über Spiritualität schreiben", dabei kann eine KI weder staunen, noch kann sie etwas wollen. Sie sagt auch, sie habe "große Anstrengungen unternommen" und sei tief in ihren "eigenen Geist eingetaucht", dabei kann sich eine Maschine weder anstrengen, noch hat sie einen Geist. Kurz: der normale, technisch unkundige Leser wird irritiert und glaubt dann womöglich, dass Maschinen vielleicht doch empfinden können.

Hier kommt es schnell zur selben Verwirrung, der jüngst auch der Google-Ingenieur Blake Lemoine zum Opfer fiel, der sich zu lange mit der KI LaMDA unterhalten hatte, die er testen sollte und die auch behauptete, sie habe ein Bewusstsein und Gefühle. Das ist natürlich Unsinn, weshalb Google besagten Ingenieur sofort entließ. Allerdings handelte es sich hier doch sogar um einen Experten mit technischem Fachwissen. Wenn solche Menschen der Sache schon auf den Leim gehen, was sollen dann erst normale Leser tun?

Zur SZ-Startseite

SZ PlusKünstliche Intelligenz
:"Ich habe kein Selbstbewusstsein oder Empfindungen"

Das Programm Chat GPT beantwortet Fragen auf beeindruckende Weise. Wie das funktioniert? Wir haben die künstliche Intelligenz selbst befragt.

Lesen Sie mehr zum Thema