Der Supercomputer, den alle Menschen im Kopf tragen, etwa 1300 Gramm schwer, Energiebedarf gut eine halbe Pizza pro Tag, er hat so seine Besonderheiten. Der Bio-Rechner trifft Annahmen, will in allem einen Sinn und manchmal auch eine Seele erkennen. Wenn sich etwas verhält wie ein Lebewesen, vielleicht auch noch so aussieht, neigt die Gattung Mensch dazu, es auch so zu behandeln. Roboter-Staubsauger bekommen Namen und verheddern sie sich mal wieder im Kabelsalat unterm Schreibtisch, befreit man sie nachsichtig.
Es liegt also in der Natur des Menschen, dort eine Seele zu vermuten, wo Indizien dafür vorliegen, verhaltenstheoretisch gesprochen: Schlüsselreize. In Japan, im Shintoismus, ist das sogar religiös verankert, weshalb man dort auch technischen Geräten eine Seele zugesteht. Für die meisten Menschen gab es bisher aber noch keinen Anlass, ein Sensorium dafür zu entwickeln, wann etwas tatsächlich ein bewusstes Wesen ist und wann nicht. Nun ist die künstliche Intelligenz (KI) zwar noch weit davon entfernt, tatsächlich ein Wesen mit einem Bewusstsein zu erschaffen. Doch die Technologie wird immer besser darin, genau das vorzugaukeln.
Schnöde Statistik statt Bewusstsein
Daher ist der Fall eines Google-Ingenieurs, der in einer KI-Software ein Bewusstsein entdeckt haben will, eine Mahnung, die sowohl die Branche als auch die Forschung sehr ernst nehmen sollten. Jemand, der nicht weiß, wie eine KI, in diesem Fall eine Chat-Software, zu ihren Ergebnissen gelangt, könnte sich durchaus täuschen lassen und ein Bewusstsein vermuten, wo nichts ist außer schnöder Statistik. Das Chatprogramm Lamda etwa, das den Google-Mitarbeiter nasführte, bezieht seine zugegebenermaßen recht beeindruckenden Fähigkeiten aus einer Wissensbasis von gut 1,6 Billionen Wörtern. Das sind zwei Millionen (!) mal mehr als die gesamte Bibel mit ihren knapp 800 000 Wörtern.
Mit schnellen, parallel arbeitenden Rechnern und schlauen Algorithmen wurden diese Datenberge auf Beziehungen und Verwandtschaften hin abgeklopft - eine reine Zahlenfresserei. So entsteht schließlich ein Sprachmodell, in Lamdas Fall eines, das Dialoge besonders gut kann, auch weil es mit speziellen Dialog-Beispielen, die von Menschen kuratiert wurden, ein Sondertraining erhielt. Seele oder Bewusstsein? Nicht die Bohne. Trotzdem ist es nicht überraschend, dass das Ergebnis auf manche Menschen nicht bloß faszinierend wirkt, sondern sie auch beeinflussen kann.
KI-Modelle stecken voller Vorurteile
Das eigentliche Problem liegt tiefer, ist aber viel gefährlicher: KI-Modelle stecken voller Vorurteile. Und bei aller ausgeklügelten Mathematik sind sie auch fehlerhaft. Denn sie beziehen ihr Wissen ja aus dem, was schon vorhanden ist - mit vielen der Fehler und Vorteile. Wissenschaftlerinnen wie Meredith Whittaker, früher selber bei Google in der Forschung tätig, kritisieren daher, dass man sich mit Kinkerlitzchen wie KIs mit Bewusstsein beschäftige, aber nicht mit den wahren Problemen.
Unterdessen aber machten die großen Unternehmen wie Google, Meta und andere einfach weiter, mehr und mehr wurden KI-Systeme für Entscheidungsprozesse in Politik und Wirtschaft herangezogen. Um keine falsche Spur zu legen: Es geht hier nicht um Systeme, die vorhersagen, wie viel Fleisch eine Supermarktkette ordern soll und ähnliches. Sondern es geht um Software, die zum Beispiel Prognosen darüber abgibt, welcher Häftling eine größere Wahrscheinlichkeit hat, rückfällig zu werden.
Es braucht eine verantwortungsvolle KI
Mag mancher daher auch lächeln oder sogar lästern über die Bestrebungen in Europa, eine verantwortungsvolle KI zu entwickeln - es ist genau der richtige Weg. Es entspricht den Werten, die auch der Europäischen Union zugrunde liegen und die von vielen Seiten bedroht sind. Leider ist offenbar vielen nicht bewusst, wie wertvoll dieses Gut ist - obwohl im Osten Europas gerade ein verheerender Krieg tobt, in dem es letztlich um Freiheit und Menschenrechte geht.
So nutzbringend Technologie sein kann und so nötig die Menschen sie brauchen: deswegen die in Jahrhunderten mit großen Opfern errungenen Freiheiten Stück für Stück aufzugeben, darf keine Option sein.