Künstliche Intelligenz:So entsteht rassistische Software

Künstliche Intelligenz: Für ein neuronales Netz ist es ein großer Unterschied, ob dieses Bild mit "Baby" oder mit "weißes Baby" betitelt ist.

Für ein neuronales Netz ist es ein großer Unterschied, ob dieses Bild mit "Baby" oder mit "weißes Baby" betitelt ist.

(Foto: imago stock&people)
  • Neuronale Netze übernehmen rassistische Denkmuster von den Menschen, die sie mit Informationen füttern.
  • Forscher aus Amsterdam hatten einen Datensatz von Flickr untersucht und darin viele sexistische und rassistische Stereotype gefunden.
  • So etabliert sich eine amerikanische, weiße, männliche Sicht auf die Welt - auch bei der Software.

Von Michael Moorstedt

Sie hatten ihr Bestes gegeben und sind miserabel gescheitert. Microsoft startete im Frühjahr einen automatisierten Twitter-Account namens Tay, der mit menschlichen Nutzern lockere Konversation betreiben und so die Chancen und Möglichkeiten von künstlicher Intelligenz bewerben sollte. Innerhalb von nur 24 Stunden drehte das Programm durch. Es twitterte Nazi-Parolen und frauenfeindliche Sprüche und es glorifizierte Drogenkonsum. Microsoft reagierte schnell und deaktivierte das Konto. Doch es war zu spät, der PR-Gag mutierte zum Imagedesaster.

Was war passiert? Hinter Tay steckt ein sogenanntes neuronales Netzwerk, eine Art von rudimentärer künstlicher Intelligenz (KI), die von den menschlichen Gesprächspartnern lernen sollte. Wie sich herausstellte, sind die oftmals toxischen Twitter-Konversationen jedoch nicht die beste Umgebung für einen leicht beeinflussbaren Computerverstand.

Tay ist nur ein unglückliches Beispiel für einen generellen Trend. Um sie zu "trainieren", programmieren KI-Entwickler ihren Programmen heutzutage nicht mehr für jede Eventualität den entsprechenden Code ein. Sie lassen sie stattdessen auf große Datenmengen los. Einer Software, die dazu entwickelt wurde, automatisch Bilder zu betiteln, werden etwa so lange Fotos von Hunden gezeigt, bis sie eigenständig in der Lage ist, das abgebildete Tier zu erkennen.

Rechner übernehmen nur die eingespeisten Vorurteile

Forscher der Freien Universität Amsterdam untersuchten nun einen dieser Datenpools, das sogenannte Flickr30K, eine Sammlung von mehr als 30 000 Fotos der Bildplattform, die jeweils mit fünf Beschreibungen versehen sind und die routinemäßig fürs Software-Training eingesetzt werden. Sie fanden viele sexistische und rassistische Stereotypen. Menschen mit asiatischen Gesichtszügen sind automatisch Chinesen oder Japaner. Weiße Babys firmieren einfach nur als Babys, während bei schwarzen Kindern deren Hautfarbe in die Bildbeschreibung einfließt.

Ein Motiv, das einen Mann und eine Frau in einem Büro zeigt, wurde mit der Bildunterschrift "Angestellte wird von ihrem Chef zurechtgewiesen" versehen. Nichts in diesem Bild deutet auf eine Hierarchie hin. Es ist nur eine menschliche Interpretation. Denn eingegeben werden die Daten zumeist von schlecht bezahlten digitalen Gelegenheitsarbeitern, die für Beträge im Mikro-Cent-Bereich ein Bild nach dem anderen beschriften. So, sagen die Amsterdamer Forscher, bekommen die Programme eine vor allem amerikanische, weiße, männliche Sicht auf die Welt präsentiert. Und weil es die Maschinen nicht besser wissen können, übernehmen und reproduzieren sie uralte Vorurteile.

Geht es nur um Twitter-Gespräche und Bildunterschriften, mag diese Befangenheit noch als Lapsus durchgehen. Doch neuronale Netzwerke werden für immer mehr und immer wichtigere Aufgaben eingesetzt. Sie könnten genauso gut über die Vergabe von Krediten entscheiden oder darüber, welcher Bewerber für einen Job eingestellt wird. Die Amsterdamer Forscher finden daher wichtig, dass mehr auf die Qualität der Trainingsdaten geachtet wird: Die Menschen müssen ihren Maschinen einen Sinn für Richtig und Falsch beibringen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: