Künstliche Intelligenz:Italienische Datenschutzbehörde sperrt ChatGPT

Lesezeit: 1 min

Programme wie Dall-E und Chat-GPT von Open AI können Fakes erstellen, die kaum noch aufzuspüren sind. (Foto: Michael Dwyer/AP)

Viele sind beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Doch es gibt auch Sorgen. Nun ist die Anwendung in Italien nicht mehr benutzbar - vor allem, weil nach Ansicht der dortigen Datenschützer Kinder nicht gut genug geschützt sind.

Italiens Datenschutzbehörde hat den populären Text-Automaten ChatGPT vorläufig gesperrt. Sie verweist darauf, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere. Auch gebe es keine Filter, die verhinderten, dass Kinder für sie "absolut unangebrachte" Informationen angezeigt bekämen.

Es seien Ermittlungen eingeleitet worden, heißt es von der Behörde. Zugleich sei vorsorglich die Verarbeitung von Daten von Nutzern aus Italien verboten worden - ChatGPT ist damit in dem Land nicht mehr anwendbar.

OpenAI hat nun 20 Tage Zeit, um Maßnahmen gegen die Vorwürfe zu präsentieren. Danach droht eine Strafe von bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes der Firma.

Die Datenschutzbehörde verweist auch auf eine jüngst bekanntgewordene Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer Software zurück.

Risiko, dass die Software "Fakten halluziniert"

ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasste. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt das Risiko, dass die Software "Fakten halluziniert", wie OpenAI es nennt - falsche Informationen als korrekt wiedergibt.

Die italienischen Datenschützer sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde. Es gebe keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen. Die Behörde war im Februar bereits auf ähnliche Weise gegen einen anderen Chatbot mit dem Namen Replika vorgegangen. Dabei ging es ebenfalls um den Schutz von Kindern.

ChatGPT war in den vergangenen Monaten Gegenstand zahlreicher gesellschaftlicher Debatten. Viele Beobachter sind beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte.

© SZ/dpa/olkl - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusDigitalisierung
:KI, unser Untergang?

Die künstliche Intelligenz Chat GPT besteht jetzt akademische Prüfungen und hilft beim Betrügen. Was macht das mit dem Leben, der Arbeit, der Bildung, der Kreativität?

Von Andrian Kreye

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: