bedeckt München 28°

Künstliche Intelligenz:Wenn Chatbots sich radikalisieren

Surfen im Internet

Hass und Hetze sind trauriger Alltag der Online-Kommunikation

(Foto: Nicolas Armer/dpa)

Facebook hat aus Chats den Bot "Blender" entwickelt. Von den Menschen hat sich das Programm auch Rassismus und Fake-News abgeschaut.

Das Ideal, an dem Roboter und künstliche Intelligenz (KI) gemeinhin gemessen werden, ist das der Menschlichkeit. Das scheint für Science Fiction Filme der 1920er Jahre ebenso zu gelten wie für unseren heutigen Alltag, den Sprachassistenten und Smart-Apps schon längst mitbestimmen. Im April verkündete Facebooks KI-Abteilung, mit "Blender" einen Chatbot entwickelt zu haben, der in Gesprächen besonders menschlich agiere und damit ähnliche Anwendungen übertreffe. Dafür wurde das Programm mit mehr als 1,5 Milliarden Gesprächseinträgen von öffentlich zugänglichen Portalen wie Reddit gespeist. Ein Intensiv-Training für unterschiedlichste Gesprächsthemen, aber auch für natürliche Sprach- und Verhaltensmuster.

Die frei verfügbaren Datenmengen haben aber auch ihre Schattenseite: So beinhalteten die Antworten der Chatmaschine in Tests immer wieder Beleidigungen, diskriminierende Aussagen und Fake-News. Dennoch - oder gerade deshalb - konnte Blender offenbar durch seine Menschlichkeit bestechen. 67 Prozent der Tester gaben an, der Bot sei in der Unterhaltung überzeugender und menschlicher als sein Google-Äquivalent Meena, der als einer der bisher am weitesten entwickelten seiner Art gilt. 49 Prozent konnten Blender nicht von einem menschlichen Gesprächspartner unterscheiden.

Chatbots kommen vor allem im digitalen Kundenservice von Unternehmen zum Einsatz, wo sie Auskunft zu bestimmten Themenbereichen geben sollen. Wer per Direktnachricht über E-Banking, Telefontarife oder Versicherungskonditionen informiert werden möchte, spricht dabei immer seltener mit echten Menschen. Entwicklern haben die Bots in den vergangenen Jahren zunehmend als Experimentierfläche gedient, um künstliche Intelligenzen Menschen mehr anzunähern. Microsofts "Tay" oder "Mitsuku" von Pandorabots wurden anhand von Chats trainiert, die Millionen von Nutzern mit ihnen führten. Neben Wissen spielen auch Persönlichkeit und Empathie eine entscheidende Rolle dafür, dass Menschen die Unterhaltung mit der Maschine als bereichernd empfinden. Durch Machine Learning können sich die Programme während Gesprächen laufend und quasi eigenständig weiterentwickeln. Je mehr sie mit Menschen kommunizieren, desto mehr lernen sie von ihnen.

Beleidigungen und Propaganda

Doch genau das hat auch in der Vergangenheit schon zu Schwierigkeiten geführt. Das Microsoft-Produkt "Tay" wurde im direkten Gespräch mit Nutzern mit Beleidigungen und Propaganda überhäuft und integrierte diese entsprechend in sein Vokabular. Bei den enormen Datenmengen an bereits bestehenden Gesprächen, mit denen Blender gefüttert wurde, ist das offenbar nicht anders. Die Gesprächskultur in den sozialen Medien oder Foren wie Reddit lebt nicht zuletzt von Beleidigungen oder der Verbreitung von Falschinformationen. Das macht manuelle Zensuren unabdingbar, wenn man verhindern möchte, dass Chatbots Elemente wie Rassismus, Sexismus oder Verschwörungstheorien übernehmen und weiterverbreiten. Die Workforce, die dafür nötig wäre, kann allerdings nicht einmal Facebook bewältigen.

Im Blog Israellycool wurden zuletzt beunruhigende Auszüge eines Chatprotokolls mit Blender veröffentlicht. Auf die Frage, was er von Juden hält, antwortet der Bot es seien "furchtbare Menschen", die ständig nicht-jüdische Menschen umbringen würden. Solche antisemitischen Aussagen sind neben anderen Hassbotschaften Alltag in Foren wie Reddit, und jetzt wohl auch Bestandteil von Blenders Gesprächsrepertoire. Im Gegensatz zu expliziten Schimpfwörtern dürften die auf diese Weise weiter einfließenden Vorurteile deutlich schwieriger aus dem Programm herauszufiltern sein - und sind dabei umso fataler in ihrer Weiterverbreitung. Dass Blender in diesem Fall antisemitisch agierte, lässt laut Facebook keine unmittelbaren Rückschlüsse darauf ziehen, wie Judentum online am häufigsten kommentiert wird. Die generierten Antworten seien nicht direkt übernommen, sondern basierten auf einer komplexen Kombination unterschiedlicher Gesprächsparameter.

Überwachung und Verantwortung

Marion Weissenberger-Eibl, Leiterin des Fraunhofer-Instituts für System- und Innovationsforschung, sieht das Problem im Lernprozess selbst. Es sei nach wie vor schwierig für KI, sprachliche und inhaltliche Feinheiten richtig einzuordnen. Sie sagt: "Um zu vermeiden, dass Chatbots in dieser Art und Weise agieren, müsste man ihnen zuallererst beibringen, was Rassismus ist. Eine bisher ungelöste Problematik, denn ein Chatbot kann beispielsweise nicht zwischen schwarzem Humor und Rassismus differenzieren." Für sie stelle sich daher die Frage, wie das Lernen des Programms überwacht werden kann - und auch, wer dafür die Verantwortung trägt.

Das Forscherteam hinter Blender vermeldete anlässlich des Launchs, dass man sich mit Schutz vor toxischer Sprache auseinandergesetzt habe, aber weiterhin viel zu tun sei. Blender wurde als Open-Source-Software veröffentlicht und steht demnach per Code zur freien Verfügung. Auf Anfrage der SZ teilt Facebook mit, dass es sich bei dem Blender-Bot um ein reines Forschungsprojekt handle, das als solches nicht für den Markt sondern vorerst nur der Entwicklercommunity freigegeben wurde, um gemeinsam die Gesprächs-KI zu optimieren. Die von Israellycool verwendete Version sei vom Unternehmen Cocohub bereitgestellt worden, welches den Code abgeändert und so auch eingebaute Schutzmechanismen entfernt habe. Diese würden in der Originalversion verhindern, dass auf die Frage, was Blender vom Judentum halte, eine Antwort generiert wird. Für ein manuelles Aussortieren toxischer Inhalte, so Facebook, sei der eingespeiste Reddit-Datensatz zu groß und daher ungeeignet. Auch deswegen sei der Bot zum jetzigen Zeitpunkt weder für Privatpersonen noch für einen kommerziellen Einsatz gedacht.

© SZ/mri/mxm
Oct 14 2011 Irvine California U S BRIAN CHAVARRIAGA 20 of Huntington Beach had his new iP

Sprachsteuerung
:Weißt du, was ich meine? 

Immer mehr Unternehmen wollen eine automatisierte Sprachsteuerung nutzen, um mit Kunden zu kommunizieren. Doch es gibt einige Hürden.

Von Helmut Martin-Jung

Lesen Sie mehr zum Thema

Zur SZ-Startseite