Künstliche IntelligenzWerden Sprachmodelle noch unzuverlässiger?

Lesezeit: 4 Min.

Für viele bereits ein alltäglicher Begleiter: Chat-GPT auf dem Handy.
Für viele bereits ein alltäglicher Begleiter: Chat-GPT auf dem Handy. (Foto: David Talukdar/IMAGO/ZUMA Wire)

Neue KI-Programme halluzinieren noch häufiger als ihre Vorgänger. Woran das liegt – und was Nutzer dagegen unternehmen können.

Von Nils Althaus

Open AIs neueste und beste Sprachmodelle o3 und o4-mini sind beneidenswert fleißig. Glaubt man ihren Beteuerungen, lesen sie manchmal sogar geschäftsinterne Sitzungsprotokolle durch oder führen private Gespräche, um dem Nutzer die bestmöglichen Informationen zur Verfügung zu stellen. Das Problem ist nur: Diese Gespräche und Sitzungen haben nie stattgefunden. Die Sprachmodelle fabulieren etwas zusammen. Den Eindruck, dass o3 und o4-mini öfter flunkern als frühere Modelle, teilen viele Fachleute, darunter auch Marcel Salathé, Co-Direktor des AI Center der ETH Lausanne: „Ich muss ihren Output stärker kontrollieren als jenen älterer Modelle. Neulich habe ich der KI eine Musikpartitur gezeigt. Sie behauptete steif und fest, es sei Liszt. Erst nach drei oder vier Interaktionen ließ sie sich überzeugen, dass es sich um Chopin handelt.“

Zur SZ-Startseite

Künstliche Intelligenz
:Entwickeln Maschinen ein Bewusstsein?

Damit müsse man zumindest rechnen, sagt der Bewusstseinsphilosoph Jeff Sebo im Interview. Doch was bedeutet das für unseren Umgang mit Computern oder Saugrobotern?

SZ PlusInterview von Nils Althaus

Lesen Sie mehr zum Thema

  • Medizin, Gesundheit & Soziales
  • Tech. Entwicklung & Konstruktion
  • Consulting & Beratung
  • Marketing, PR & Werbung
  • Fahrzeugbau & Zulieferer
  • IT/TK Softwareentwicklung
  • Tech. Management & Projektplanung
  • Vertrieb, Verkauf & Handel
  • Forschung & Entwicklung
Jetzt entdecken

Gutscheine: