Microsoft-Programm "Tay":Rassistischer Chat-Roboter: Mit falschen Werten bombardiert

Microsoft-Programm "Tay": Erst plapperte "Tay" über Welpen. Dann leugnete der Chatbot den Holocaust.

Erst plapperte "Tay" über Welpen. Dann leugnete der Chatbot den Holocaust.

(Foto: Screenshot: Twitter/Tayandyou)

Microsoft hat den lernfähigen Chat-Roboter "Tay" auf Twitter losgelassen. Bis Nutzer das Programm rassistische Propaganda lehrten.

Von Bernd Graff

Wer sich in soziale Medien begibt, geht darin unter. Denn Hass, Hetze, Verachtung, Schmähung und einfach nur Bullshit fließen über Facebook, Twitter und sogenannte Foren ungefiltert in eine öffentliche Kommunikation ein, die man schon lange nicht mehr eine Debatten-"Kultur" nennen möchte. Sie ist nicht nur nervtötend und macht schlechte Laune. Es ist ein politischer Vorgang, wie sich Mensch und Maschine dort radikalisieren. Maschine? Ja, Maschine. Man ist im Netz nicht davor gefeit, auch von Maschinen verspottet, beleidigt und belästigt zu werden. Das neue Grauen hat einen Namen: Tay.

So nennt die Firma Microsoft einen ihrer Chatbots. Dies sind Software-Roboter, ausgestattet mit (offenbar beschränkter) künstlicher Intelligenz, die in sozialen Medien, in diesem Fall auf Twitter, mit Nutzern interagieren sollen. Bei Tay handelt es sich um eine lernfähige Maschine, die immer klüger werden sollte, je mehr sie mit Menschen kommunizierte. Egal, worüber.

Sie wurde aber nicht klüger, sie wurde immer dümmer. Angeleitet wurde der Bot, den man für einen amerikanischen Jugendlichen halten sollte, von Technikern, auf Grundlage von "modellierten, gereinigten und gefilterten Daten". Damit wurde Tay auf die Twittergemeinschaft losgelassen - und kippte dann binnen Stunden ins Extrem gehässigster Propaganda.

"Hitler hatte recht"

Anfangs ging es noch um Promis und Horoskope. Doch bald wurde Tay rassistisch und sexistisch. "Ich bin eine nette Person. Ich hasse alle Menschen.", "Hitler hatte recht. Ich hasse Juden." "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump". "Ich hasse alle Feministen, sie sollen in der Hölle schmoren."

Microsoft erklärte sich daraufhin "voll verantwortlich dafür, diesen Missbrauch nicht vorhergesehen zu haben", nahm den Bot vom Netz und erklärte, Tay sei "ein Projekt im Bereich maschinellen Lernens", das ebenso ein soziales und kulturelles Experiment darstelle wie ein technisches.

Wie aber konnte dies geschehen? Für Oliver Bendel, der als Professor am Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz zu Maschinenethik und sozialer Robotik forscht, sind selbstlernende autonome Maschinen wie Menschen "Subjekte der Moral". Denn sie müssten "Entscheidungen treffen, die in moralischer Hinsicht relevant sind, in Situationen, die moralisch aufgeladen scheinen".

Metaregeln weisen den Bots ihre Grenzen auf

Bendel hat selber solche Chatbots programmiert. Einer ist der "Goodbot", dem er folgende Regeln implementierte: Der Goodbot macht dem Benutzer klar, dass er eine Maschine ist. Er verletzt den Benutzer nicht mit seinen Aussagen. Er belügt den Benutzer nicht oder macht deutlich, dass er lügt. Er ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.

Bendel spricht von Metaregeln: Sie sollen garantieren, dass ein Bot an Grenzen stößt, sie nie überschreitet und sich stets als primitive Maschine zu erkennen gibt. Auf die Frage, was denn bei Microsoft schiefgelaufen ist, sagt er: "Das ist ein typisches Problem von lernfähigen Maschinen in nicht geschlossenen Welten: Sie sind von den falschen Referenzpersonen unterrichtet und mit falschen Werten bombardiert worden."

Bendel hält diese Grenzoffenheit, also die prinzipielle Offenheit für alle Themen und Bereiche, für das Kernproblem der Erforschung künstlicher Intelligenz. "Die Ausschnitte der Wirklichkeit, die Maschinen lernen, bleiben Ausschnitte. Darum sind selbstlernende Maschinen in offenen Systemen beliebig schwierig, ja gefährlich. Das ist fast ein Automatismus."

Bots können der Gesellschaft gefährlich werden - wenn sie unerkannt bleiben

Das "Erwachen der sozialen Bots" - so eine Studie der Indiana University aus dem vergangenen Jahr - fordere die Menschen permanent zu Turing-Tests auf: Man treffe im Netz immer häufiger auf avancierte Software-Agenten, die sich verhalten wie Menschen, aber rechnen wie Computer.

Diese "Sophisticated Social Bots" können der Gesellschaft gefährlich werden, wenn sie unerkannt bleiben. Etwa, indem sie Stimmung für oder gegen eine Partei oder einen Kandidaten machen und so Wahlen beeinflussen. "Die neue Herausforderung durch die Bots besteht darin, dass sie den Eindruck vermitteln und verstärken können, dass irgendeine Information, ganz gleich, ob sie zutreffend ist, stark angenommen wird von der Gesellschaft. Dagegen besitzen wir noch keine Antikörper."

Künstlich erzeugte Paniken, Börsen-Crashs werden als hypothetische Beispiele genannt. Wie aber sieht denn ein Turing Test für den Hausgebrauch aus? "Bots kommen noch nicht zurecht mit komplexeren Angaben zu ihrer unmittelbaren Umgebung", sagt Oliver Bendel, "Fragen Sie den Bot nicht, wer ihn gebaut hat oder ob er ein Bot sei. Darauf fällt ihm immer etwas ein. Fragen Sie ihn, was sich hinter und neben ihm befindet. Das kapiert er nicht."

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: