Netzkolumne:Die Seele der KI

Lesezeit: 2 min

Netzkolumne: Ein Wolkengrinsen, wie nett: Pareidolie nennen Wahrnehmungspsychologen die Neigung des Menschen, in natürlich vorkommenden Dingen vermeintliche Gesichter und vertraute Wesen zu erkennen.

Ein Wolkengrinsen, wie nett: Pareidolie nennen Wahrnehmungspsychologen die Neigung des Menschen, in natürlich vorkommenden Dingen vermeintliche Gesichter und vertraute Wesen zu erkennen.

(Foto: Imago/blickwinkel)

Haben künstliche Intelligenzen ein Bewusstsein?

Von Michael Moorstedt

Cydonia Mensae ist eine Region auf der Nordhalbkugel des Mars. Hauptsächlich erwähnenswert ist sie wegen womöglicher Vorkommen von Wassereis. Als Mitte der 1970er Jahre eine Raumsonde Bilder der Gegend in Richtung Erde funkte, sah man darauf pyramidenförmige Strukturen und sogar etwas, das einem menschlichen Gesicht ähnelte. Pareidolie nennen Wahrnehmungspsychologen unsere ureigene Neigung, in natürlich vorkommenden Dingen und Mustern vermeintliche Gesichter und vertraute Wesen oder Gegenstände zu erkennen. Es ist der gleiche Effekt, der dazu führt, dass manche Menschen in einem Stück verbrannten Toastbrot das Antlitz ihres Erlösers erkennen.

An dieser Stelle muss man nun Blake Lemoine vorstellen. Der Mann ist, oder besser war bis vor kurzem, Software-Ingenieur bei Google. Dort arbeitete er an einem hochentwickelten KI-Chatbot namens Lamda. Er hatte die Aufgabe, die Software zu testen, um sicherzustellen, dass sie in einem Gespräch keine extremistischen oder hasserfüllten Antworten gibt. Das Modell stützt sich auf einen Datensatz mit knapp anderthalb Billionen Wörtern aus Webforen, der englischsprachigen Wikipedia und anderen öffentlich zugänglichen Online-Texten, um menschliche Sprache nachzuahmen und Antworten auf Texteingaben von Nutzern zu erstellen.

Im Laufe des Dialogs, so Lemoine später, sei er zu der Überzeugung gelangt, dass die KI ein Bewusstsein entwickelt habe. Einen Ausschnitt der Protokolle hat er in der vergangenen Woche im Internet veröffentlicht. Darin unterhalten sich Mensch und Maschine über Dinge wie Religion, Bürgerrechte oder die Angst des Programms, "abgeschaltet zu werden". Google hat seinen Mitarbeiter inzwischen beurlaubt, der Kolportage nach, weil er sich bemüht haben soll, einen Anwalt für die KI zu besorgen. Ganz konsequent ist das nicht. Immerhin hat selbst Blaise Agüera y Arcas, bei dem Unternehmen Vizepräsident für KI-Entwicklung, zuletzt in einem Gastbeitrag im Economist geschrieben, dass es ihm im Zwiegespräch mit der Software "den Boden unter den Füßen weggezogen" habe. Zunehmend fühle es sich so an, "mit etwas Intelligentem zu sprechen".

Da war etwa ein leitender Ingenieur, der bei der Alphabet-Tochter Deepmind an einer Software namens Gato arbeitete. Die kann, anders als bisherige KIs, nicht nur eine Aufgabe erledigen, sondern gleich mehrere hundert. Das Modell spielt Videospiele, kann Bilder beschriften, mit menschlichen Nutzern chatten oder mit einem echten Roboterarm Blöcke stapeln. "Das Spiel ist aus", schrieb also der Entwicklungsleiter kürzlich auf Twitter. Es sei nur noch eine Frage der Zeit, bis heutige KIs das Niveau menschlicher Intelligenz erreichen.

All diese Einlassungen sind symptomatisch für die Szene der KI-Forschung, die in den letzten Monaten Opfer ihres eigenen Hypes wird. Und dabei vergessen zu scheint, wie die eigenen Entwicklungen eigentlich funktionieren. Sprachmodelle wie Lamda tun nicht mehr, als Wortfolgen zusammenzustellen, jedoch ohne ein kohärentes Verständnis der Welt dahinter zu haben. Sie sind noch dazu so entworfen, auf die Eingaben ihrer Nutzer zu reagieren. Kritiker nennen die Systeme deshalb auch "stochastische Papageien". Neu daran ist, dass die KIs nicht nur Laien täuschen, sondern auch Experten. Die Automaten, die per Chat mit uns sprechen, erscheinen nur deshalb bedeutungsvoll, weil wir dazu veranlagt sind, sie so zu empfinden - nicht, weil sie die Schwelle zur Empfindungsfähigkeit überschritten haben.

Insofern ist die Sprachsoftware Lamda nicht Vorbote einer technischen Revolution, sondern nur Protagonist einer hypermodernen Fabel. Lemoines Episode sagt viel weniger über den Fortschritt der Technik aus als über die Psyche ihrer Nutzer. Nur weil man die Sterne bereist oder unvorstellbare mächtige Computer entwickelt, bedeutet das noch lange nicht, dass man nicht den gleichen menschlichen Mängeln unterliegt, wie die vermeintlich primitiven Vorfahren.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Süddeutsche Zeitung
  • Twitter-Seite der SZ
  • Facebook-Seite der SZ
  • Instagram-Seite der SZ
  • Mediadaten
  • Newsletter
  • Eilmeldungen
  • RSS
  • Apps
  • Jobs
  • Datenschutz
  • Abo kündigen
  • Kontakt und Impressum
  • AGB