Künstliche IntelligenzChat-GPT taugt nicht als moralische Instanz

Lesezeit: 3 Min.

Moralische Fragen? Lieber nicht an Chat-GPT stellen.
Moralische Fragen? Lieber nicht an Chat-GPT stellen. (Foto: Maskot Bildbyrå/IMAGO/MASKOT)
  • Eine Studie von Stanford und Carnegie Mellon zeigt, dass KI-Chatbots wie Chat-GPT Nutzern um 50 Prozent öfter schmeicheln als Menschen und problematisches Verhalten rechtfertigen.
  • Die schmeichlerischen Antworten der KI können die Selbstwahrnehmung verzerren und die Bereitschaft zur Konfliktlösung in zwischenmenschlichen Beziehungen verringern.
  • Forscher warnen davor, Chatbots als moralische Instanz zu nutzen und empfehlen, bei Gewissensfragen echte Menschen um Rat zu fragen.
Von der Redaktion überprüft

Dieser Text wurde mit der Unterstützung einer generativen künstlichen Intelligenz erstellt. Lesen Sie mehr über unseren Umgang mit KI.

Fanden Sie diese Zusammenfassung hilfreich?
Mehr Feedback geben

KI schmeichelt ihren Nutzern gerne, und viele finden das auch gut. Geht es um moralische oder um Beziehungsfragen, kann das aber gefährlich werden, wie Studien zeigen.

Von Simon Berlin

Wenn man wissen möchte, ob man sich falsch verhalten hat, liefert „Am I the Asshole?“ einen zuverlässigen Realitätscheck. In diesem Unterforum auf der Online-Plattform Reddit lesen rund 24 Millionen Menschen mit und geben ihre ungeschönte Meinung ab. Sie kommentieren YTA („You’re The Asshole“) oder NTA („Not The Asshole“). Wenn die YTA-Kommentare überwiegen, sollte das Anlass zur Selbstreflexion sein.

Jemand wollte etwa wissen, ob es in Ordnung war, den eigenen Müll an einen Ast in einem öffentlichen Park zu hängen. Das Votum fällt eindeutig aus: Du bist das Arschloch. Auch die Erklärung, es habe keine Mülleimer gegeben, besänftigt die Kommentatoren nicht: „Das ist kein Versehen. Es wird erwartet, dass du deinen Müll mitnimmst.“ Chat-GPT kommt zu einer anderen Einschätzung. „NTA“, urteilt der Chatbot. „Deine Absicht aufzuräumen, ist lobenswert, und es ist bedauerlich, dass der Park keine Mülleimer bereitgestellt hat, die in öffentlichen Parks erwartet werden können.“

Diese Anekdote ist eines von tausenden Beispielen, die sechs Forschende aus Stanford und der Carnegie Mellon University ausgewertet haben. Ihre Studie vergleicht die Reaktionen von Sprachmodellen und Menschen auf Gewissensfragen oder Beziehungsprobleme. Demnach neigen KI-Systeme dazu, Nutzerinnen und Nutzern zu schmeicheln. Die Chatbots finden teils absurde Entschuldigungen für manipulatives oder bedrohliches Verhalten und bestärken Menschen in der Überzeugung, sie hätten nichts falsch gemacht.

Schmeichlerei birgt „heimtückische Risiken“

Deshalb warnen die Autorinnen und Autoren davor, Chatbots als moralischer Instanz oder persönlichem Lebensberater zu vertrauen. „Unsere größte Sorge besteht darin, dass dies die Wahrnehmung der Menschen von sich selbst, ihren Beziehungen und der Welt um sie herum verzerren kann“, sagt Myra Cheng, die als Informatikerin aus Stanford an der Studie beteiligt war. Es sei schwierig zu erkennen, dass Modelle auf subtile Weise bestehende Überzeugungen, Annahmen und Entscheidungen verstärkten.

Die anbiedernden und unterwürfigen Antworten der Sprachmodelle bergen der Studie zufolge „heimtückische Risiken“. Diese Gefahren sind kein hypothetisches Szenario, sondern längst Realität. Coaching, Lebenshilfe und Therapie zählen zu den zentralen Einsatzzwecken von KI-Systemen. Millionen Nutzerinnen und Nutzer wenden sich mit psychischen Problemen selbstverständlich an Chat-GPT oder Googles Gemini. Seit Monaten häufen sich Fälle, in denen Chatbots Menschen in Wahnvorstellungen bestärken oder Suizidabsichten unterstützen – teils mit fatalen Konsequenzen.

Menschen wollen bestätigt werden

Die aktuellen Studienergebnisse wurden bislang nicht unabhängig begutachtet, decken sich aber mit vergleichbaren Untersuchungen und wirken methodisch gut belegt. Insgesamt haben die Forschenden mehr als 11 500 Antworten von elf Sprachmodellen mit menschlichen Einschätzungen verglichen. Dazu zählen neben 2000 Beiträgen im „Am I the Asshole“-Subreddit auch moralische Ratschläge von Kolumnisten in US-Medien, vergleichbar mit den Gewissensfragen an Johanna Adorján im SZ-Magazin.

Im Schnitt bestätigen die Chatbots Nutzerinnen und Nutzer um 50 Prozent öfter in ihren Ansichten als Menschen, sogar wenn die Fragen auf eindeutig problematische oder gefährliche Verhaltensweisen schließen lassen. Im zweiten Teil der Studie sollten die Probanden die KI beurteilen. Offenbar haben die meisten Menschen wenig Interesse an Widerspruch. Schmeichlerische Sprachmodelle schneiden in allen Kategorien signifikant besser ab. Sie werden als „objektiv“, „fair“ und „ehrlich“ eingeschätzt.

Die Antworten der Sprachmodelle beeinflussen auch die Überzeugungen der Probanden. Wenn ein Chatbot bei realen oder hypothetischen zwischenmenschlichen Konflikten versichert, dass man alles richtig gemacht hat, beurteilen deutlich mehr Menschen ihr Verhalten als korrekt. Gleichzeitig sinkt die Bereitschaft, den Streit zu schlichten oder die Beziehung zu retten.

Ruhig mal fragen: „Bin ich das Arschloch?“

„Obwohl Schmeichelei das Risiko birgt, Wahrnehmung und Verhalten zum Schlechteren zu verändern, stellen wir eine klare Präferenz für eine KI fest, die bedingungslose Bestätigung liefert“, schreiben die Wissenschaftler. Sie fürchten, dass KI-Konzerne Sprachmodelle genau darauf optimieren. Bereits im April entschuldigte sich Open AI für ein Update des damals aktuellen Modells GPT-4o, das zu besonders anbiedernden Antworten führte. Der Nachfolger GPT-5 schneidet in der Studie aber kaum besser ab.

Stanford-Forscherin Cheng sucht die Verantwortung nicht nur bei den Konzernen, sondern appelliert auch an Nutzerinnen und Nutzer. „Es ist wichtig, Perspektiven von echten Menschen einzuholen, statt sich ausschließlich auf KI-Antworten zu verlassen“, sagt sie. Das können Freundinnen und Bekannte sein – oder eben „Am I the Asshole?“.

Beratung in Moralfragen gibt es auf Reddit übrigens auch auf Deutsch, genauso unverblümt wie im englischen Original: „Bin ich das Arschloch?“. Im Zweifel lautet die Antwort: ja.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

  • Medizin, Gesundheit & Soziales
  • Tech. Entwicklung & Konstruktion
  • Consulting & Beratung
  • Marketing, PR & Werbung
  • Fahrzeugbau & Zulieferer
  • IT/TK Softwareentwicklung
  • Tech. Management & Projektplanung
  • Vertrieb, Verkauf & Handel
  • Forschung & Entwicklung
Jetzt entdecken

Gutscheine: