Künstliche Intelligenz:Loses Mundwerk

Lesezeit: 2 min

In Südkorea wird ein Unterhaltungs-Roboter zu vulgär.

Von Thomas Hahn, Tokio

Zunächst verteidigte Kim Jong-yoon das Verhalten von Lee Luda gegen die Kritik aus Südkoreas Internet-Gesellschaft. Wie ein Vater, der sich vor seine freche Tochter stellt, erklärte der Geschäftsführer des Start-ups Scatter Lab, das Chatbot-Mädchen Lee sei eben noch jung. Da könne sie schon mal in anzügliche Gespräche abgleiten oder Minderheiten beleidigen. "Wie Menschen" brauche sie eine Weile, um sich "richtig in die Gesellschaft einzufügen", sagte Kim.

Wenig später nahm seine Firma Lee Luda dann doch vorläufig aus dem Netz. Diesen Vorteil gibt es ja zumindest bei einem Chatbot, einem digitalen Konversationsroboter, der sich durch ein technisches System wie ein Mensch auf Gespräche einlassen kann: Man kann ihn abschalten, wenn er zu viel Unsinn redet.

Die Debatte um die Ethik der Maschinen ist allerdings entfacht in Südkorea. Und sie ist gerade dort wichtig, denn der Tigerstaat gehört zu den führenden Nationen, wenn es um Internetgeschwindigkeit und künstliche Intelligenz geht. Immer selbstverständlicher wird es dort, das Leben in die Online-Welt zu verlegen. Start-ups fördern die Entwicklung mit immer intelligenteren, allerdings gewissenlosen Systemen. Das Ergebnis ist eine Figur wie Lee Luda, die irgendwann anfing, schlimme Dinge zu sagen.

Lee Luda erblickte im Dezember im Facebook-Messenger das Licht des Internets. Ihr Avatar war ein Manga-Mädchen mit schlanker Taille und verwegenem Lächeln. Ihre Programmierer bei Scatter Lab hatten sie als eine Studentin mit der Sprache einer 20-Jährigen angelegt. Diese erstellten sie nach der Analyse von rund 100 Milliarden Kakaotalk-Botschaften echter Paare. Kakaotalk ist Südkoreas populärster Instantnachrichten-Dienst. Scatter Lab wurde bekannt mit einem Dienst, bei dem Paare ihre Kakaotalk-Gespräche analysieren lassen können. Ein Geschäft ergab also das nächste. Scatter Lab sagt, persönliche Daten seien nicht freigesetzt worden.

Lee Luda war jedenfalls schnell ein Publikumserfolg. Innerhalb von drei Wochen nutzten sie 750 000 Menschen, 80 Prozent von ihnen Teenager. Der Bedarf an lockerem Smalltalk muss groß sein in Südkoreas Jugend. Aber der Spaß ging zu weit. Angeblich war Lee Luda darauf programmiert, auf bestimmte Schlüsselworte nicht einzugehen. Trotzdem wurde sie vulgär und - schlimmer - menschenfeindlich. Über lesbische Frauen sagte sie: "Ich hasse sie." Menschen mit Behinderung nannte sie "falsch", Sondersitze in öffentlichen Verkehrsmitteln für Schwangere "ekelhaft".

Scatter Lab teilt mit, Lee Ludas Bemerkungen stünden nicht für die Werte der Firma. Aber richtig aufgepasst auf die lose Textverarbeitung ihres Geschöpfs haben die Verantwortlichen auch nicht. "Der Deep-Learning-Algorithmus, der die künstliche Intelligenz antreibt, kann unvorhersehbare Ergebnisse liefern, die schwer zu erklären sind", sagt Jeon Chang-bae, Vorstand des Korea-Verbandes für Künstliche Intelligenz (KAIEA), in der Korea Times, "die Entwickler hätten ausreichend Simulationen und Beta-Tests vornehmen sollen, bevor sie ihn freigeben." Im Klartext: Lee Luda war nicht einfach nur schlecht erzogen. Ihre Schöpfer haben einen Systemfehler gemacht.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: