PsychologieWenn der KI eher vertraut wird als dem Kollegen

Lesezeit: 2 Min.

(Foto: Borja Viz via www.imago-images.de/IMAGO/Addictive Stock)
  • Eine Studie der Universität des Saarlandes zeigt, dass Programmierer KI-generiertem Code weniger kritisch prüfen als Code von menschlichen Kollegen.
  • Während menschliche Teams häufiger kritische Rückfragen stellen, vertrauen Entwickler KI-Vorschlägen bereitwilliger und nehmen sie eher ohne Prüfung an.
  • KI programmiert nicht fehlerfrei und Programmierfehler können weitreichende Folgen haben, wie der Amazon-Ausfall im Oktober zeigte.
Von der Redaktion überprüft

Dieser Text wurde mit der Unterstützung einer generativen künstlichen Intelligenz erstellt. Lesen Sie mehr über unseren Umgang mit KI.

Fanden Sie diese Zusammenfassung hilfreich?
Mehr Feedback geben

Eine Studie zeigt: Wenn Code von einer KI stammt, sind Programmierer weniger kritisch. Dabei macht auch diese Fehler – und die können weitreichende Folgen haben.

Von Theresa Palm

Wer öfter einen KI-Chatbot bemüht, hat wahrscheinlich schon mal wenig hilfreiche Antworten bekommen. Sie müssen nicht gleich so fatal gewesen sein wie manche Gesundheitstipps, die KIs schon eingefallen sind, etwa Kochsalz doch mal durch das giftige Natriumbromid zu ersetzen. Aber vielleicht erfundene Buchtitel als Weihnachtsgeschenktipps oder nicht existente Filme, die der Bot für den Heimkinoabend empfiehlt. Und viele Bot-Chatter werden zumindest im ersten Impuls wohl darauf vertraut haben, dass an den Antworten etwas dran ist.

Offenbar ergeht es nicht nur unbedarften KI-Nutzerinnen so, sondern auch Menschen, denen man eine professionelle Nähe zum Thema unterstellen würde: Software-Entwicklern. Das zeigt eine Studie der Universität des Saarlandes, die Ergebnisse werden diese Woche in Seoul auf einer der größten Informatik-Fachkonferenzen vorgestellt.

Software entsteht heute schon ganz anders als noch vor einigen Jahren. Bewährt hat sich „Pair Programming“, ein Vorgehen, bei dem sich Entwicklerinnen beim Coden austauschen. Das kann tatsächlich so aussehen, dass zwei Personen vor einem Computer sitzen und gemeinsam an einer Aufgabe arbeiten, sich gegenseitig kontrollieren und über Ideen beraten. Doch diese Funktion übernehmen vermehrt KI-Agenten, die längst nicht mehr nur Vorschläge zur Vervollständigung angefangener Code-Zeilen machen, sondern seit fast fünf Jahren als Gesprächspartner bereitstehen. Bei Google etwa ist mehr als ein Viertel des neuen Codes KI-generiert.

Wie der Umgang mit dem KI-Kollegen sich von dem mit echten Kollegen unterscheidet, hat das Forschungsteam aus Saarbrücken untersucht. Dafür ließen sie 19 Testpersonen in menschlichen Zweierteams oder mit einem KI-Assistenten kooperieren.

Die gute Nachricht: Auch Menschen werden weiterhin gebraucht

In beiden Konstellationen tauschten sich die Probanden über die Programmieraufgaben aus. Die menschlichen Teams neigten dazu, vom Thema abzuschweifen und weniger konzentriert am jeweiligen Problem zu verweilen, sagt Sven Apel, der als empirischer Informatiker an der Studie beteiligt war. Der KI-Assistent förderte hingegen zielgerichtetere Interaktionen – denen die Nutzer auch bereitwilliger vertrauten. Was zunächst nur nach einem weniger netten Arbeitsumfeld klingt, könnte ein Problem bedeuten.

Zwischen den menschlichen Kollegen habe es viel häufiger kritische Rückfragen gegeben und ein gesundes Misstrauen, ob der jeweilige Partner wirklich alles richtig gemacht hat, sagt Apel. Vorschläge des KI-Assistenten nahmen die Test-Programmierer eher ohne kritische Prüfung an.

Doch die KI programmiert keineswegs fehlerfrei. Und Programmierfehler können weitreichende Folgen haben. Als die Cloudservices von Amazon im Oktober für wenige Stunden ausfielen, war das auf der ganzen Welt spürbar: Snapchat fiel aus, Flüge wurden gecancelt, Studenten waren von Lernplattformen abgeschnitten. Das öffentliche Leben und die Wirtschaft basieren auf Code. Umso wichtiger, KI-Code nicht blind zu vertrauen.

„Die automatische Technologie gibt uns keine Garantien, dafür braucht man Menschen“, sagt Apel. Es gehe nun stärker darum, sicherzustellen, dass Programmzeilen – wer auch immer sie verfasst hat – auch Jahre später noch verständlich sind, funktionieren und sich ändern lassen. Das mag auch Software-Entwicklerinnen beruhigen: Menschliche Kollegen sind noch nicht überflüssig.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Künstliche Intelligenz
:Dann haben wir halt elektronische Freunde

Immer mehr Menschen führen mit Chatbots soziale Beziehungen, verlieben sich in sie, haben Sex mit ihnen. Aber muss das ein Problem sein? Über Chancen und Grenzen virtueller Freundschaften.

SZ PlusVon Christian Weber

Lesen Sie mehr zum Thema

  • Medizin, Gesundheit & Soziales
  • Tech. Entwicklung & Konstruktion
  • Consulting & Beratung
  • Marketing, PR & Werbung
  • Fahrzeugbau & Zulieferer
  • IT/TK Softwareentwicklung
  • Tech. Management & Projektplanung
  • Vertrieb, Verkauf & Handel
  • Forschung & Entwicklung
Jetzt entdecken

Gutscheine: