Programmieren:Wenn die Blacklist zur Blocklist wird

Browser: Chrome bekommt einen Sicherheitscheck

Aus dem Code des Browsers Chrome sollen rassistische Begriffe entfernt werden.

(Foto: Catherine Waibel/dpa-tmn)

Google will rassistische Begriffe aus dem Code seiner Software eliminieren. Das gefällt nicht allen.

Von Marisa Gierlinger

Nach dem Tod von George Floyd setzt die Black-Lives-Matter-Bewegung auch die Tech-Konzerne des Silicon Valley unter Druck, bis hin zum Programmcode. Google will subtil rassistische Begriffe aus dem gewohnten Computer-Slang tilgen. Konkret betrifft das den Code des Browsers Chrome. In ihm sollen gängige Begriffe wie "Blacklist" und "Whitelist" durch weniger verfängliche wie "Blocklist" und "Allowlist" ersetzt werden (Blockier- und Erlaubt-Liste). Die Farben Schwarz und Weiß standen bislang symbolisch für die Vertrauenswürdigkeit von Webseiten - die Blacklist umfasst demnach Seiten, die als Gefahr eingestuft und für den Nutzer des Browsers gesperrt werden.

Ein weiteres Beispiel aus der Programmiersprache sind die Begriffe "Master" und "Slave", die den Zugriff auf gemeinsame Daten hierarchisch regulieren. Der Forderung einer Google-Entwicklerin, diese Begriffe zu entfernen, schloss sich auch Nat Friedman an, CEO der Plattform Github. Sie ist der wichtigste Ort im Netz, um Software-Code auszutauschen und gemeinsam zu bearbeiten. Aber sind solche Umbenennungen wirkungsvolle Signale oder nur Sprachklauberei? Die Sprachwissenschaftlerin Susan Arndt befürwortet Googles Schritt: "Menschen wissen oft nicht, dass bestimmte Begriffe rassistisch sind - das macht diese aber nicht weniger rassistisch." Farbsymbolik und Rassismus seien historisch miteinander verschränkt: "Um ein System der Versklavung aufzubauen, brauchte man eine Erzählung, warum das in Ordnung ist. In dem Moment erfand man unterschiedliche Rassen und machte sich die christliche Farbsymbolik zu eigen, um zwischen Gut und Böse zu unterscheiden." Diese Farbenlehre prägt unsere Sprache auch heute: schwarzfahren, schwarzsehen, Schwarzmarkt - die Farbe wird als Synonym für schlecht, böse oder illegal verwendet. Diese Begriffe seien auf lange Sicht Teil der Alltagssprache. Google habe die Chance, mit sofortiger Wirkung etwas zu verändern, sagt Susan Arndt.

Sprache schafft Realität - es gibt kaum einen Bereich, in dem man diesen Grundsatz so wörtlich nehmen kann wie beim Programmcode. Diese Sprache ist ein Handlungsbefehl, ein Gesetz für die Maschine, das keine Abweichungen zulässt. Wer im Silicon Valley die Codes der modernen Infrastruktur schreibt, gehört meist nicht nur zu einer gut bezahlten Elite, sondern formt die Handlungsmöglichkeiten in der digitalisierten Gesellschaft mit. Dabei wird die Technologiebranche selbst nach wie vor von weißen Männern dominiert. Nur 14,2 Prozent der Menschen, die bei Google in einem technischen Bereich arbeiten, sind weiblich, sogar nur 2,4 Prozent der technischen Mitarbeiter sind nach Konzernangaben schwarz. Der Anteil schwarzer Einwohner an der US-amerikanischen Gesamtbevölkerung betrug im vergangenen Jahr 13,4 Prozent.

Besonders schlimm wird es, wenn Software gelernte Verhaltensmuster verstärkt

Für Achim Rettinger, Professor für Computerlinguistik an der Universität Trier, sind diskriminierende Begriffe im Code dann problematisch, wenn sie das auch in der Alltagssprache sind. "Code ist primär nur dem Programmierer zugänglich und wirkt sich deshalb auch erst mal nur auf die Realität des Programmierers aus. Es gibt allerdings viele allgemein gebräuchliche Begriffe wie 'Blacklist', auf deren Vermeidung besonders geachtet werden sollte, da sie zumindest innerhalb der Branche häufig Verwendung finden."

Wichtig wird sprachliche Sensibilität für Rettinger vor allem, wenn es um maschinelles Lernen gehe. "Wenn diese Verfahren in Software-Werkzeugen wie digitalen Sprachassistenten, Empfehlungssystemen oder zur Erstellung von Inhalten eingesetzt werden, sind die Aktionen der Software aus einer großen Zahl von Aufzeichnungen menschlichen Verhaltens gelernt. Damit übernimmt die Software diskriminierendes Verhalten und verstärkt es."

Algorithmen sind sogar noch anfälliger für diskriminierendes Verhalten. Zu diesem Ergebnis kam zuletzt eine Studie des Instituts für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT). Der algorithm bias zeige sich in Verfahren wie der automatisierten Gesichtserkennung. Die Programme weisen eine deutlich höhere Fehlerquote auf, wenn es sich um Menschen mit dunkler Hautfarbe handelt. Ethnische Minderheiten könnten dadurch noch häufiger unter falschen Verdacht geraten.

Bestrebungen, Programmcode von beleidigender Sprache zu reinigen, gibt es in der Software-Entwicklung seit Jahren. Schon 2014 verbannte Drupal, eine freie Content-Management-Software für Webseiten, die Master-Slave-Terminologie aus ihrem Code. Das Engagement von Google und Github könnte der Bewegung nun aber mehr Reichweite verschaffen.

Die Meldung über sprachliche Änderungen im Code trifft aber bei manchem Afroamerikaner auch auf Empörung. So nennt zum Beispiel Ian M., ein Software-Entwickler aus dem Silicon Valley, der seinen Nachnamen lieber verschweigen möchte, die Aktion "albern und heuchlerisch". Sie zeige einen Mangel an Verständnis für die tiefer liegenden Probleme in der Gesellschaft. "Für mich als schwarze Person ist das etwas, bei dem ich mir nur vorstellen kann, dass eine weiße Person denkt, damit etwas zu bewegen." Ian M. sagt auch, Google als marktorientiertes Unternehmen habe nicht die Aufgabe, aktivistisch mitzumischen. Erst recht nicht, wenn dies in erster Linie der Selbstdarstellung in der aktuellen Stimmungslage diene.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: