Süddeutsche Zeitung

Künstliche Intelligenz:Technik fördert Vorurteile

Nicht Killer-Roboter sind gefährlich für Menschen, sondern virtuell verbreitete Vorurteile, warnen Experten. Algorithmen können Rassismus befördern.

Von Katharina Kutsche

Gegen Diskriminierung hilft, sich der eignen Vorbehalte bewusst zu sein. Das trifft nicht nur auf den Umgang mit anderen Menschen zu, sondern auch auf die Technik, die wir nutzen. Experten für künstliche Intelligenz (KI) warnen, dass dabei nicht etwa selbständig agierende Killer-Roboter die Gefahr seien, sondern Vorurteile.

Eine KI ist in erster Linie eine Software. Sie befindet sich etwa in Apps, die mit einer Bilderkennung arbeiten, oder Deep Learning-Systemen wie AlphaGo, das gegen den menschlichen Meisterspieler im japanischen Brettspiel Go gewann. Eine KI anzulernen bedeutet, sie mit Inhalten zu füttern und dem Algorithmus zu erklären, woran er Unterschiede erkennen kann. Je mehr Daten die KI zur Verfügung hat, desto schneller lernt sie. Das hängt von möglichst neutralen Anweisungen ab. Ein Negativbeispiel: Wer bei Googles Bildersuche "professionelle Frisur" eingibt, dem zeigt der Algorithmus Fotos von weißen Männern. Zum Begriff "unprofessionelle Frisur" dagegen erscheinen Bilder von dunkelhäutigen Frauen. Eine Unverschämtheit, die mit der Qualität von Haarschnitten nichts zu tun hat.

In den USA wird KI-Software im Strafvollzug genutzt. Sie soll vorhersagen, wie wahrscheinlich es ist, dass ein entlassener Häftling rückfällig wird. Untersuchungen zeigen, dass der Algorithmus rassistisch ist: Er schrieb afroamerikanischen Tätern ein 77 Prozent höheres Risiko zu, eine Gewalttat zu begehen, als weißen Straftätern, deren Risiko für alle Straftaten bei 45 Prozent lag. Der Abgleich mit den tatsächlichen Rückfallquoten zeigte, dass die KI bei Gewalttaten um 80 Prozent danebenlag, bei anderen Straftaten um 40 Prozent.

Suchen Polizeibeamte per Gesichtserkennung nach Verdächtigen oder Vermissten, oder entsperrt sich das neue iPhone X auf einen Blick hin, steckt dahinter das gleiche KI-Prinzip. Auch hier nutzen die Entwickler Trainingsdaten, die sich unter anderem nach der Ethnie unterscheiden: Gesichter von Asiaten, Weißen oder Schwarzen.

Künstliche Intelligenzen sind aber eine Blackbox für ihre Entwickler. Obwohl sie sie trainieren, können die Forscher nicht sicher sagen, wie die Software einen Begriff zuordnet. Soziologen fordern daher, dass Entwickler bewusst hinterfragen, ob die Ethnie im jeweiligen Fall wirklich ein Unterscheidungskriterium ist. Neutralität ist geboten, vor allem, wenn man bedenkt, dass KI-Technik auch in der medizinischen Diagnostik oder bei der Bewerbersuche auf dem Arbeitsmarkt eingesetzt wird.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.3774024
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 02.12.2017
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.