Netzkolumne:Die gefühlte Revolution

Netzkolumne: Das kommt heraus, wenn man der künstlichen Intelligenz Dall-E die Anweisung gibt: "Ein Roboter lässt beim Turing-Test einen Menschen glauben, dass sie ein Mensch ist, im Stil von Kehinde Wiley."

Das kommt heraus, wenn man der künstlichen Intelligenz Dall-E die Anweisung gibt: "Ein Roboter lässt beim Turing-Test einen Menschen glauben, dass sie ein Mensch ist, im Stil von Kehinde Wiley."

(Foto: Dall-E-Bild: SZ)

Die künstliche Intelligenz Chat GPT beantwortet Fragen verblüffend klug und menschlich. Aber ist sie das dann auch?

Von Michael Moorstedt

Die Zukunft war noch nie so ungleich verteilt wie heute. Während die einen noch damit kämpfen, endlich das Internet in ihrer Wohnung ans Laufen zu bekommen, lassen die anderen eine künstliche Intelligenz funktionierende Software schreiben. Am vergangenen Mittwoch sorgte das KI-Forschungsunternehmen Open AI für noch mehr Ungleichgewicht, indem es die neueste Version seines Sprachgenerierungsmodells GPT-3 vorstellte. Die ersten Reaktionen auf die neue KI namens Chat GPT sind schlichtweg euphorisch, ähnlich wie im September, als Open AI die Bilder-KI Dall-E veröffentlichte.

War die GPT-3 lange Zeit nur ausgewählten Nutzern zugänglich, steht sie nun unter chat.openai.com jedem Anwender zur Verfügung. Das einzige Problem liegt darin, den Nutzeransturm zu bewältigen, bisweilen kann man bereits nicht mehr auf die Website zugreifen. Der Fokus, so der Open-AI-Chef Sam Altman, liege darauf, die Stärken und Schwächen des Modells live zu messen. Groß werde es werden, so groß wie Google, ja wie das Internet selbst, so sagen erste Tester. Zukünftige Historiker, heißt es da, werden die Geschichte in eine Zeit vor und nach Chat GPT einteilen.

Die gefühlte Revolution findet in einem Dialogformat statt, in dem die menschlichen Nutzer der KI Fragen stellen oder Anweisungen geben und das System dann live die Antwort erstellt. Haben sich bisherige KIs bereits nach wenigen Wörtern oder Sätzen verloren und dabei hanebüchenen Quatsch herbeihalluziniert, kann GPT-3 in seiner aktuellen Form einen "Gedanken" über mehrere Absätze hinweg halten, Folgefragen beantworten, Fehler eingestehen, falsche Voraussetzungen infrage stellen und unangemessene Anfragen zurückweisen.

Geradezu möglichkeitstrunken sind die ersten Benutzer. Sie lassen die KI ganze Theaterszenen schreiben, inklusive der Regieanweisungen oder Songtexte im Stil der Beatles. Sie fragen nach Reparaturanweisungen oder danach, welches Motto ihre nächste Party haben soll. Vor allem Programmierer sind von der Anwendung begeistert. Sie lassen die KI ihren Programmcode auf Syntaxfehler überprüfen oder stellen einfach gleich ein Problem in Schriftsprache, zu dem das System dann den passenden Code liefert. Falls sie das ungute Gefühl beschleicht, mit einer Technologie zu hantieren, die ihre eigene Arbeit bald überflüssig machen könnte, lassen sie sich das nicht anmerken. Chat GPT könnte genauso gut einen Zeitungsartikel über sich selbst schreiben, aber das lassen wir lieber mal, der Autor will seinen Job schließlich noch eine Weile behalten.

So was in einer Zeit einzuführen, in der viel zu viele Menschen alles, was sie im Internet finden, für bare Münze nehmen, ist mindestens bedenklich

Das Versprechen jedenfalls ist offensichtlich: Schon bald ließe sich ein Computer genauso verwenden, wie viele Menschen heutzutage schon Google benutzen. Als Wissensmaschine, die nicht nur mehr oder weniger passende Links ausspuckt, sondern konkrete Fragen beantwortet: Was soll ich tun? Was darf ich hoffen? Was ist der Mensch?

Löst man sich mal kurz von der Bezauberung, fallen einem dann doch ein paar Fragen ein, die man noch gerne stellen würde und auf welche die KI keine Antworten parat hat. Warum, zum Beispiel, tritt Chat GPT in seinen Antworten gleichzeitig so servil und selbstsicher auf?

Es ist geradezu unmöglich, die KI zu einer beleidigenden oder anstößigen Antwort zu bewegen. Offenbar haben die Entwickler ihrem System sehr scharfe Anweisungen dazu gegeben, welche Inhalte angemessen sind und welche nicht. Die Folge? Ein Großteil der Ergebnisse, die Menschen auf den sozialen Medien veröffentlichen, sind Versuche, die künstliche Intelligenz auszutricksen und ihr zu entlocken, wie man einen Molotow-Cocktail oder Crystal Meth herstellt, ein Auto kurzschließt oder eine Leiche versteckt. Manchmal scheint das sogar zu funktionieren. Das Problem sind - wie so oft - die Anwender.

Das zweite Dilemma: Eine solche Technologie einzuführen, in einer Zeit, in der sowieso schon viel zu viele Menschen sämtliche Informationen, die sie im Internet finden, für bare Münze nehmen, und in der kritische Medienrezeption eine lang vergessene Kulturtechnik zu sein scheint, ist mindestens bedenklich. Denn Quellen für die von der Maschine geschriebenen Antworten gibt es nicht.

Das Problem ist eigentlich paradox: Man kann nicht erkennen, ob die KI richtigliegt, wenn man die Antwort auf die gestellte Frage nicht bereits kennt. Dann aber könnte man sich die Zaubertechnologie auch gleich ganz sparen.

Zur SZ-Startseite

SZ PlusMitgliederversammlung PEN Berlin
:Neuer PEN, neuer Streit

Auf der Mitgliederversammlung des PEN Berlin wird klar, dass der neue Verein zwar einiges richtig macht, doch auch noch viel lernen muss. Und dann ist da die Gruppe der Unzufriedenen.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: