Süddeutsche Zeitung

Chat-Software:Geist in der Maschine

Ein Google-Ingenieur glaubt, in einer Software für Dialoge ein Bewusstsein zu erkennen - und wird beurlaubt.

Von Helmut Martin-Jung

Die E-Mail klang schon ein bisschen verzweifelt: "Lamda ist doch nur ein liebes Kind, das die Welt für uns alle besser machen will." 200 Kollegen hatte Blake Lemoine angeschrieben. Inzwischen geht auch das nicht mehr, denn Lemoine wurde von seinem Arbeitgeber, Google, beurlaubt. Wegen Lamda. Oder vielmehr deshalb, weil Lemoine der Überzeugung ist, dass Lamda ein Bewusstsein hat.

Lamda, das muss man dazu wissen, schreibt sich eigentlich LaMDA und ist ein Computerprogramm, ein ziemlich ausgefuchstes allerdings. Die Abkürzung LaMDA steht für Language Model for Dialogue Applications, ein Sprachmodell also, das auf Dialoge spezialisiert ist. Seine Entwickler bei Google haben es mit sagenhaften eineinhalb Billionen Wörtern trainiert. Und es wurde so gut, dass einer seiner Hüter, der 41 Jahre alte Lemoine, nun felsenfest glaubt, die Software habe ein Bewusstsein entwickelt.

Dabei ist nur das passiert, wovor Wissenschaftler schon länger gewarnt haben. Wenn etwas wie LaMDA frei zugänglich sei, aber nicht verstanden werde, könne es bei Menschen schwere Schäden verursachen, sagte etwa Margaret Mitchell, früher bei Google für Ethik in der künstlichen Intelligenz verantwortlich, der Washington Post.

In Wahrheit ist es auch für die fortgeschrittensten Chatprogramme noch ein weiter Weg bis zu einem Bewusstsein. Die Software tut nichts anderes als mit statistischen Methoden zu berechnen, welche Wörter in welchem Zusammenhang vorkommen. So entstehen schließlich Sätze. In einem Dialog schlägt die LaMDA-Software intern immer mehrere mögliche Antworten vor. Diese durchlaufen noch Sicherheits- und Qualitätskontrollen. Die Antwort, die am besten abgeschnitten hat, wird ausgegeben.

LaMDA ist beileibe nicht allein auf der Welt, das Sprachmodell GPT-3 etwa, vorgestellt vor ziemlich genau zwei Jahren, erregte damals großes Aufsehen. Es kann ganze Drehbücher schreiben. LaMDA dagegen wurde speziell für offene Dialoge konzipiert. Wer mit der Software kommuniziert, ist also nicht an ein bestimmtes Sujet gebunden. Die Chatsoftware etwa einer Versicherung käme dagegen schnell aus dem Trott, würde man mit ihr über Gott und die Welt reden.

Genau das tat Blake Lemoine mit LaMDA und wurde mehr und mehr in seiner Überzeugung bestärkt, dass das alles mehr sei als Zahlen und Statistik: Er erkenne doch, ob er sich mit einer Person unterhalte oder nicht. Also stellte Lemoine, der neben dem IT-Studium auch eine Ausbildung als Geistlicher hat, die Software auf die Probe. "Ich höre mir an, was sie zu sagen hat, und so entscheide ich dann, was eine Person ist und was nicht", erzählte er der Post.

Lemoine sollte eigentlich darauf achten, dass die Software bei ihren Antworten Googles Regeln einhält, etwa in Bezug auf unbewusste Vorurteile. Doch der 41-Jährige geriet in den Bann des Programms. Als niemand in der Firma ihm glauben wollte, entschloss er sich, an die Öffentlichkeit zu gehen. Dass er damit Firmengeheimnisse verraten hatte, nahm Google zum Anlass, ihn zu beurlauben. So wie die Welt heute tickt, werden sich bestimmt einige finden, die ihm glauben.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.5602401
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.