Netzkolumne:Wer hat's geschrieben?

Netzkolumne: Wie komplex ist ein Text? Und wie variantenreich? Anhand dieser Kriterien können Programme eine KI-Urheberschaft ausmachen. Hundertprozentig genau arbeiten sie jedoch nicht.

Wie komplex ist ein Text? Und wie variantenreich? Anhand dieser Kriterien können Programme eine KI-Urheberschaft ausmachen. Hundertprozentig genau arbeiten sie jedoch nicht.

(Foto: Jakub Porzycki/IMAGO/NurPhoto)

Wenn KI-Programme Texte verfassen, braucht es auch Programme, die sie als Urheber erkennen. Aus dem Silicon Valley kommt wenig.

Von Michael Moorstedt

Die Website CNet war mal eine Institution. Hierhin ging man, um die letztgültige Meinung zu Computerthemen zu erfahren. Welches neue Gadget soll man kaufen, welches System verspricht den maximalen Distinktionsgewinn? Weil man sich ohnehin an vorderster Front der Zukunft wähnte - und außerdem Geld sparen kann -, begann die Redaktion im vergangenen Herbst, Texte zu veröffentlichen, die mithilfe von KI-Programmen geschrieben wurden. Eher verschämt jedoch, nicht mehr als einen kleinen Hinweis gab es darauf auf der Website.

Knapp 80 Artikel sind auf diese Weise entstanden. Und wie das Tech-Portal Futurism berichtet, stellten sich die computergenerierten Texte im Nachhinein nicht nur als fehlerdurchsetzt heraus - die KI kupferte auch noch schamlos von Konkurrenznachrichtenseiten ab. Wochen nach Auffliegen des Experiments meldete sich die CNet-Chefredakteurin Connie Guglielmo etwas zerknirscht zu Wort. Nun gut, schrieb sie, man werde den KI-Einsatz erst mal aussetzen, aber weiter daran arbeiten. Auch die Entertainmentplattform Buzzfeed meldete ein paar Tage später, redaktionelle Inhalte künftig von KI erstellen zu lassen. Der Börsenkurs des Unternehmens verdoppelte sich nach dieser Ankündigung.

Das Programm GPT Zero hat beinahe einen ähnlich rasanten Aufstieg hingelegt wie Chat GPT

Seit der KI-Konzern Open AI Anfang Dezember sein Chat-GPT-Modell veröffentlicht hat, kommen Pädagogen und Medienkritiker mit ihren Bedenken gar nicht mehr hinterher. Das CNet-Beispiel zeigt, dass das, was in den meisten Medien momentan noch theoretisch diskutiert wird, praktisch schon längst im Einsatz ist. Text auf Knopfdruck. Dabei war der Hintergedanke harmlos, bestand er doch lediglich darin, ein paar Dollar durch Werbeanzeigen und Affiliate-Links abzugreifen. Anders verhält es sich freilich mit KI-generierten Schularbeiten oder Fake News.

Sind Lehrer oder kritische Leser also weiterhin allein auf ihre Intuition angewiesen, um zu erkennen, wer da die Feder geführt hat? Nicht ganz: Das Programm GPT Zero hat beinahe einen ähnlich rasanten Aufstieg hingelegt wie Chat GPT selbst. Hier kann man Texte darauf prüfen, ob sie von einer KI geschrieben wurden oder nicht. Ähnliches versprechen Websites wie detector.dng.ai oder openai-openai-detector.hf.space.

Um zu einem Urteil zu gelangen, untersucht GPT Zero Texte auf, wie es der 22-jährige Entwickler Edward Tian nennt, perplexity und burstiness. Ersteres misst die Komplexität des Textes. Wenn der Text dem Bot vertraut ist - weil er mit solchen Daten trainiert wurde -, dann hat er eine niedrige Komplexität und ist daher wahrscheinlicher von einer KI generiert. Das zweite Kriterium vergleicht die Variationen innerhalb des Textes. Menschen neigen dazu, mit größerer Sprengkraft zu schreiben, sie wechseln längere und komplexe Sätze mit kürzeren ab. Die KI neigt hingegen zu Gleichförmigkeit.

"Automatisch generierte Texte sind etwas, an das wir uns anpassen müssen, und das ist gut so."

Eine hundertprozentige Genauigkeit lässt sich mit all diesen Werkzeugen jedoch nicht erreichen. Andernorts wird deshalb über den Einsatz sogenannter radioaktiver Daten nachgedacht. Bei von KI erzeugten Bildern haben Forscher des Facebook-Mutterkonzerns Meta bereits gezeigt, dass die Computermachwerke als solche identifiziert werden können, wenn sie mit "radioaktiven Daten" trainiert werden, also mit Bildern, die unmerklich verändert wurden, um den Trainingsprozess leicht zu verzerren. Wie bei einem Geigerzähler ist diese Erkennung selbst dann möglich, wenn nur ein Prozent der Trainingsdaten eines Modells radioaktiv sind, und selbst dann, wenn die visuellen Ergebnisse des Modells praktisch wie normale Bilder aussehen. Dieses Verfahren könnte auch auf Textmodelle wie Chat GPT angewendet werden.

"Wir befinden uns jetzt in einer neuen Welt", sagte Open-AI-Chef Sam Altman zuletzt in einem Interview, angesprochen auf die Sorgen vor der KI-Textflut. "Automatisch generierte Texte sind etwas, an das wir uns anpassen müssen, und das ist gut so." Wie genau so eine Anpassungsleistung aussehen könnte, sagte Altman leider nicht.

Das ist eine traditionelle Antwort aus dem Silicon Valley: Um die gesellschaftlichen Implikationen der eigenen Schöpfung will man sich dann doch nicht zu viele Gedanken machen, darum müssen sich andere kümmern. Wie lautete noch das alte Facebook-Motto? Move fast and break things. Wen kümmert's, wenn dabei etwas auf der Strecke bleibt.

Zur SZ-Startseite

SZ PlusDigitalisierung
:KI, unser Untergang?

Die künstliche Intelligenz Chat GPT besteht jetzt akademische Prüfungen und hilft beim Betrügen. Was macht das mit dem Leben, der Arbeit, der Bildung, der Kreativität?

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: