bedeckt München 32°

Rassismus und Algorithmen:Warum Tech-Konzerne der Gesichtserkennung abschwören

Gesichtserkennungstechnologie *** face recognition technology PUBLICATIONxINxGERxSUIxAUTxONLY Copyright: xGaryxWatersx

Ob man schwarz oder weiß ist, ist für Gesichtserkennungssoftware nicht unerheblich.

(Foto: Gary Waters via www.imago-images.de/imago images/Ikon Images)

Microsoft will die Technologie nicht mehr an die Polizei verkaufen, um Schwarze zu schützen. Denn lernende Software ist anfällig für Vorurteile.

Von Marisa Gierlinger

Die "Black Lives Matter"-Bewegung bewirkt unter Technologie-Konzernen ein Umdenken bei der heiklen Gesichtserkennungstechnik. Als dritter großer Anbieter solcher Software gab Microsoft bekannt, US-amerikanischen Polizeibehörden die Technik nicht mehr zur Verfügung zu stellen. Die Zusammenarbeit solle eingestellt werden, bis Gesichtserkennung gesetzlich und unter Einhaltung der Menschenrechte reguliert sei, sagte Microsoft-Präsident Brad Smith am Donnerstag der Washington Post. Amazon hatte zuvor angekündigt, die Zusammenarbeit mit der Polizei für ein Jahr auszusetzen. IBM erklärte, ganz aus Verkauf und Entwicklung auszusteigen.

Software für Gesichtserkennung gleicht Fotos oder Videos von Gesichtern aus Überwachungskameras mit Bilddatenbanken ab und sucht Muster in Gesichtszügen. Das Verfahren soll bei der Fahndung nach Verbrechern helfen.

Strukturelle Diskriminierung im Justizsystem

Bürgerrechtlern gilt die Technik in den Händen von Strafverfolgungsbehörden als ebenso mächtig wie gefährlich - auch, weil unterschätzt werde, wie fehleranfällig sie ist. Diese Fehler haben in der Debatte um die brutale Behandlung schwarzer Amerikaner durch Polizisten besondere Brisanz. Bürgerrechtler, die sich gegen die Diskriminierung von Minderheiten einsetzen, fürchten, dass die Mustererkennung der Software rassistische Tendenzen noch verstärkt. An denen krankt insbesondere das US-amerikanische Strafverfolgungssystem. Schwarze Menschen werden ohnehin häufiger und für den selben Tatbestand zu längeren Haftstrafen verurteilt als weiße.

"Diese Mängel werden sich einmal mehr und insbesondere auf schwarze Menschen auswirken, und damit rassistische Polizeigewalt und ein zutiefst geschädigtes Strafjustizsystem weiter verfestigen", schreibt Joy Buolamwini von der Organisation Algorithmic Justice League über den Polizei-Einsatz von Gesichtserkennung. Historische Muster der Diskriminierung führten schon jetzt zu häufigeren Kontrollen, Verhaftungen und vorschnellen Verdächtigungen von Afro-Amerikanern. Das trage zu höheren Häftlingszahlen unter Schwarzen bei und befeuere vorhandene Diskriminierung.

Eine Fehlerquelle für die Software, die zu falschen Verdächtigungen führen kann: Analyse-Software westlicher Unternehmen wird oft an Datensätzen mit praktisch ausschließlich weißen Gesichtern trainiert. So lernt die Software, Details in weißen Gesichtern besser zu erkennen und zu unterscheiden als bei anderen Bevölkerungsgruppen. Eine groß angelegte Studie des National Institute of Standards and Technology zeigte Ende vergangenen Jahres: Dunkelhäutige Menschen werden überdurchschnittlich häufig falsch identifiziert - also für eine gesuchte Person auf einem Bild gehalten.

Auch Algorithmen sind nicht neutral

Auch Algorithmen zur Vorhersage von Verbrechen werden immer häufiger eingesetzt. Sie arbeiten mit den Daten des Justizsystems, in dem Schwarze öfter verdächtigt sowie öfter und härter verurteilt werden als Weiße. Algorithmen können daraus schlussfolgern, dass sie ein mit höherer Wahrscheinlichkeit kriminell werden oder etwa eine dunkelhäutige Person in der Menge als Gefahr einstufen.

Menschen schreiben automatisierten Verfahren oft Objektivität zu. Doch auch Algorithmen sind anfällig für Vorurteile. Diese Gefahrenquelle gelte es beim Einsatz künstlicher Intelligenz besonders zu prüfen, sagt Achim Rettinger, Professor für Computerlinguistik an der Universität Trier. Entwickler wie Nutzer "smarter" Technologien müsse das Problem bewusst gemacht werden. "Momentan ist das noch die Aufgabe aller Personen, die solche Verfahren entwickeln, einsetzen und nutzen. Ob das algorithmisch gelöst werden kann bleibt noch eine langjährige Frage der Forschung in diesem Bereich."

Microsoft, Amazon und IBM reagieren mit ihrem Verkaufstopp auf den Druck von Aktivisten. Als Begründung gab IBM an, keine Technik mehr zur Verfügung stellen zu wollen, die zu Massenüberwachung und Racial Profiling missbraucht werden könne. Die demokratische Kongressabgeordnete Alexandria Ocasio-Cortez begrüßte die Entscheidung. Gesichtserkennungs-Technik sei ein "fürchterliches Werkzeug" , das dunkelhäutige Menschen fälschlich kriminalisiere. Ob der Ausstieg der Konzerne nachhaltig ist oder eher eine PR-Aktion angesichts der politischen Lage, bleibt unklar. Fragen, ob die Technik anderen US-Behörden oder Polizei außerhalb der USA zur Verfügung gestellt werde, beantwortete Microsoft nicht.

© SZ/jab
USA: Black Lives Matter Protest in New York City Joshua Lopez doing the Cop Watch. Thousands Marched through the street

Proteste in den USA
:Wenn die Überwachten zurücküberwachen

In den USA wollen Behörden Gesichtserkennung nutzen, um Demonstranten zu identifizieren. Doch auch die rüsten technisch auf. Wie Technologie Proteste verändert.

Von Max Muth

Lesen Sie mehr zum Thema

Zur SZ-Startseite