Maschinelle Bilderkennung:Künstliche Intelligenz, menschliche Vorurteile

Lesezeit: 1 Min.

Gesichtserkennung am Bahnhof Berlin-Südkreuz.Ein Experiment in Mailand zeigt jetzt anschaulich: Maschinen übernehmen die Vorurteile ihrer Lehrer. (Foto: dpa)

Die Datenbank Image-Net beliefert künstliche Intelligenzen auf der ganzen Welt mit verschlagworteten Porträtbildern. Doch wer sein Bild dort hochlädt, könnte eine Überraschung erleben.

Kommentar von Andrian Kreye

Gehen ein Künstler, eine Forscherin und eine künstliche Intelligenz in die Bilddatenbank ... So plump und kalauerhaft war das Ergebnis, als die KI-Forscherin an der New York University Kate Crawford und der Datenkünstler Trevor Paglen eine künstliche Intelligenz auf die 14 Millionen mit 20 000 Begriffen verschlagworteten Bilder der Datenbank Image-Net ansetzten. Mit dieser KI kann jeder Besucher ihrer Ausstellung "Training Humans" in der Mailänder Fondazione Prada sein eigenes oder das Bild irgendeines anderen Menschen eingeben.

Man muss etwas ausholen, um den Witz zu erklären, was meist kein gutes Zeichen für Witze ist, deswegen schon mal der Spoiler, dass die Pointe ziemlich bitter ist. Image-Net ist ein Gemeinschaftsprojekt der Universitäten Princeton und Stanford, die in diesen Weltweit-Top-10-Uni-Listen immer auf den oberen Plätzen landen. Um dem Kalauer noch eine Plattitüde hinzuzufügen: Wenn Daten das neue Öl sind, ist Image-Net so etwas wie eine Raffinerie, die sämtliche Tankstellen der Welt beliefert. Die verschlagworteten Porträtbilder sind nämlich reiner Rohstoff, um künstliche Intelligenzen in der Gesichtserkennung zu trainieren.

Datengetriebene Künstliche Intelligenz entlarvt die Vorurteile jener, die sie füttern

Das ist trotz immer neuer KI-Sensationen weiterhin eine ausgesprochen fieselige Arbeit. Deswegen heuerten die Image-Net-Wissenschaftler über die Kleinarbeitsfirma von Amazon rund 50 000 Leute an, die zu Hause am Computer Bilder ganz altmodisch mit Etiketten versahen. Crawford und Paglen machten dann mit ihrem "Image-Net-Roulette" aus Versehen die Vorurteile des Datensatzes sichtbar, der ja künstlichen Intelligenzen helfen soll, Menschen einzuordnen.

Die Ergebnisse waren teils sehr fies. Da gab es Kategorien wie Vergewaltiger, Verbrecher und vor allem einige Begriffe für Frauen und Menschen dunkler Hautfarbe, die nicht in den Kommentar einer Familienzeitung gehören. Kleine Stichprobe unter Kollegen: Soziologe ergibt die Eingabe eines Autorenfotos, aber dann kommen auch schon Trinker, Nonne, Briefmarkensammler, Rassist, abnormale Person, und eine freundlich lächelnde Frau ergibt Krankenschwester.

Crawford und Paglen wollen ihre Vorurteilsmaschine wieder vom Internet nehmen. Der Beweis sei erbracht. Weil Image-Net aber auch die KIs von Behörden und Polizeikräften trainiert, ist die Pointe natürlich nicht nur bitter, sondern gruselig. Sie zeigt, dass datengetriebene künstliche Intelligenzen ein Hochleistungsverstärker für die Vorurteile jener sind, die sie mit Big Data füttern.

© SZ vom 28.09.2019 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Verzerrte Algorithmen
:Die blinden Flecken der künstlichen Intelligenzen

Google behauptet, seine Algorithmen könnten Nierenversagen besser vorhersagen als Ärzte. Tatsächlich vorhergesagt hat das System allerdings noch überhaupt nichts.

Von Michael Moorstedt

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: