Der Chatbot Chat-GPT kann glaubhaft "lügen". Die KI behauptet oft falsche Tatsachen, die plausibel klingen. Aber damit nicht genug: Laut einer aktuellen Studie lässt sich die KI missbrauchen, um in sozialen Netzwerken Desinformation zu verbreiten: Das Sprachmodell GPT-3 der kalifornischen Firma Open AI, eine Vorgängerversion von Chat-GPT, erzeugt auf Befehl Falschinformation, die für das Publikum glaubhafter ist als von Menschen verfasste. Das zeigen Forscher um Giovanni Spitale von der Universität Zürich nun im Magazin Science Advances.
KI und Desinformation: "Wir müssen schnell aufholen in der Bullshit-Erkennung"
Lesezeit: 3 min
Auf Falschinformationen aus der Feder einer künstlichen Intelligenz fallen Menschen besonders leicht herein. Für den öffentlichen Diskurs ist das Experten zufolge eine substanzielle Gefahr.
Von Christian J. Meier
Künstliche Intelligenz:Warum die KI so gerne lügt
Sprachmodelle wie Chat-GPT erfinden gerne Dinge und klingen dabei höchst überzeugend. Das liegt an ihrer Konstruktion - und lässt sich gar nicht so leicht beheben.
Lesen Sie mehr zum Thema