Inklusiver Code:Wenn die Blacklist zur Blocklist wird

Lesezeit: 4 min

Den Programmcode sehen in der Regel nur Programmierer. (Foto: Paul Zinken/dpa)

Google will Alltagsrassismus eliminieren - und setzt im Programmcode des Chrome-Browsers an.

Von Marisa Gierlinger

Nach der Tötung von George Floyd setzt die Black-Lives-Matter-Bewegung auch die Tech-Konzerne des Silicon Valley unter Druck, bis hinunter auf die DNA ihrer Software: den Programmcode. Google will subtil rassistische Begriffe aus dem gewohnten Computer-Slang tilgen. Konkret betrifft das den Code hinter dem Chrome-Browser. In ihm sollen gängige Begriffe wie "Blacklist" und "Whitelist" durch weniger verfängliche wie "Blocklist" und "Allowlist" ersetzt werden ("Blockier-" und "Erlaubt-Liste"). Die Farben Schwarz und Weiß standen bislang symbolisch für die Vertrauenswürdigkeit von Webseiten - die Blacklist umfasst demnach Seiten, die als Gefahr eingestuft und für den Nutzer des Browsers gesperrt werden. Sie lassen sich als eine Art Kindersicherung im Browser nutzen.

Ein weiteres Beispiel aus der Programmiersprache sind die Begriffe "Master" und "Slave", die den Zugriff auf gemeinsame Daten hierarchisch regulieren. Ein als "Master" festgelegtes Gerät zum Beispiel wird im Netzwerk vorrangig behandelt und kontrolliert alle anderen ("Slave"-)Geräte. Der Forderung einer Google-Entwicklerin, diese Begriffe zu entfernen, schloss sich auch Nat Friedman an, CEO der Plattform Github. Sie ist der wichtigste Ort im Netz, um Software-Code auszutauschen und gemeinsam zu bearbeiten.

Alltagsrassismus ist oft unsichtbar

Sind solche Umbenennungen wirkungsvolle Signale oder Sprachklauberei? Sprachwissenschaftlerin Susan Arndt befürwortet Googles Schritt. "Menschen wissen oft nicht, dass bestimmte Begriffe rassistisch sind - das macht diese aber nicht weniger rassistisch", sagt die Professorin für anglophone Literatur. Farbsymbolik und Rassismus seien historisch miteinander verschränkt: "Um ein System der Versklavung aufzubauen, brauchte man eine Erzählung, warum das in Ordnung ist. In dem Moment erfand man unterschiedliche Rassen und machte sich die christliche Farbsymbolik zu eigen, um zwischen Gut und Böse zu unterscheiden." Diese Farbenlehre prägt unsere Sprache auch heute: schwarzfahren, schwarzsehen, Schwarzmarkt - die Farbe wird als Synonym für schlecht, böse oder illegal verwendet. Diese Begriffe seien auf lange Sicht Teil der Alltagssprache. Google habe die Chance, mit sofortiger Wirkung etwas zu verändern, sagt Susan Arndt.

Das Silicon Valley ist vor allem männlich und weiß

Sprache schafft Realität - es gibt kaum einen Bereich, in dem man diesen Grundsatz so wörtlich nehmen kann wie beim Programmcode. Diese Sprache ist ein Handlungsbefehl, ein Gesetz für die Maschine, das keine Abweichungen zulässt. Wer im Silicon Valley die Codes der modernen Infrastruktur schreibt, gehört meist nicht nur zu einer gut bezahlten Elite, sondern formt die Handlungsmöglichkeiten in der digitalisierten Gesellschaft mit. Dabei wird die Technologiebranche selbst nach wie vor von weißen Männern dominiert. 14,2 Prozent der Menschen, die bei Google in einem technischen Bereich arbeiten, sind weiblich, 2,4 Prozent der technischen Mitarbeiter sind schwarz. Das geht aus dem diesjährigen Diversity Report des Unternehmens hervor. Der Anteil schwarzer Einwohner an der US-amerikanischen Gesamtbevölkerung betrug letztes Jahr 13,4 Prozent.

Für Achim Rettinger, Professor für Computerlinguistik an der Universität Trier, sind diskriminierende Begriffe im Code dann problematisch, wenn sie das auch in der Alltagssprache sind. "Code ist primär nur dem Programmierer zugänglich und wirkt sich deshalb auch erst mal nur auf die Realität des Programmierers und nicht des Endnutzers aus. Es gibt allerdings viele allgemein gebräuchliche Begriffe wie 'Blacklist', auf deren Vermeidung besonders geachtet werden sollte, da sie zumindest innerhalb der Branche häufig Verwendung finden." Ein spezielles Problem der Software-Entwicklerbranche sei rassistische Sprache seiner Meinung nach aber nicht.

Technologie ist nicht neutral

Wichtig wird sprachliche Sensibilität für Rettinger vor allem, wenn es um maschinelles Lernen gehe. "Wenn diese Verfahren in Software-Werkzeugen wie digitalen Sprachassistenten, Empfehlungssystemen oder zur Erstellung von Inhalten eingesetzt werden, sind die Aktionen der Software aus einer großen Zahl von Aufzeichnungen menschlichen Verhaltens gelernt. Damit übernimmt die Software diskriminierendes Verhalten und verstärkt es." Direkt zu beobachten war das am Beispiel von mehreren Chatbots, die anhand von Chats mit Nutzern trainiert wurden und deren beleidigendes Verhalten übernahmen. Achim Rettinger weist aber auch auf Bereiche hin, in denen Algorithmen unbewusste Diskriminierung weiter vorantreiben können: Das führe zum Beispiel dazu, dass Dunkelhäutigen im Netz eher Mietwohnungen als Eigentumswohnungen empfohlen werden, da dies den Erfahrungswerten entspricht, mit denen der Algorithmus gefüttert wurde.

Zu dem Ergebnis, dass Algorithmen sogar noch anfälliger für diskriminierendes Verhalten sind als Menschen, kam zuletzt auch eine Studie des Instituts für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT). Der sogenannte algorithm bias zeige sich in Verfahren wie der automatisierten Gesichtserkennung, die Gesichter auf Fotos oder Videos im Abgleich mit Bilddatenbanken identifizieren soll. So weisen die Programme eine deutlich höhere Fehlerquote auf, wenn es sich um dunkelhäutige Menschen handelt. Ethnische Minderheiten könnten dadurch noch häufiger fälschlich verdächtigt werden, als das ohnehin schon der Fall ist. Auch deswegen haben IBM, Microsoft und Amazon kürzlich angekündigt, den Verkauf von Gesichtserkennungssoftware an die US-Polizei vorerst einzustellen.

Rassismus und Algorithmen
:Warum Tech-Konzerne der Gesichtserkennung abschwören

Microsoft will die Technologie nicht mehr an die Polizei verkaufen, um Schwarze zu schützen. Denn lernende Software ist anfällig für Vorurteile.

Von Marisa Gierlinger

Echtes Engagement oder Imagepflege?

Bestrebungen, Programmcode von beleidigender Sprache zu reinigen, gibt es in der Software-Entwicklung seit Jahren . Schon 2014 verbannte Drupal, eine freie Content-Management-Software für Webseiten, die Master-Slave-Terminologie aus ihrem Code. Das Engagement von Google und Github könnte der Bewegung nun aber mehr Reichweite verschaffen, da sie Code quelloffen ins Netz stellen - so kann jeder auf ihn zugreifen und er deshalb die Basis für viele andere Webseiten und private Anwendungen bilden.

Die Meldung über sprachliche Änderungen im Code trifft aber bei manchem Afroamerikaner auf Empörung. So sagt zum Beispiel Ian M., ein Software-Entwickler aus dem Silicon Valley, der seinen Nachnamen nicht nennen möchte, der SZ: Die Aktion sei "albern und heuchlerisch". Sie zeige einen Mangel an Verständnis für die tiefer liegenden Probleme in der Gesellschaft. "Für mich als schwarze Person ist das etwas, bei dem ich mir nur vorstellen kann, dass eine weiße Person denkt, damit etwas zu bewegen." Die Branche sehe sich mit einer Menge Problemen konfrontiert, von den Arbeitsbedingungen ihrer Mitarbeiter bis zu dringend notwendigen Datenschutzrichtlinien für die Nutzer ihrer Produkte. Ian M. sagt auch, Google als marktorientiertes Unternehmen habe nicht die Aufgabe, aktivistisch mitzumischen. Erst recht nicht, wenn dies in erster Linie der Selbstdarstellung in der aktuellen Stimmungslage diene.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

MeinungRassismusdebatte
:Streichen, bitte

Im Grundgesetz steht zentral das Wort "Rasse". 1948/49 hat das niemand hinterfragt. Heute passt das nicht mehr: Das Wort ist rassistisch.

Kolumne von Heribert Prantl

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: