Diskriminierung:Wenn Algorithmen Vorurteile haben

Google Hands

Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände

(Foto: Google.com)

Auch Technologie kann rassistisch oder sexistisch sein. In einer zunehmend digitalisierten Welt wird das zum Problem.

Von Sara Weber

Wer uns auf Facebook als Freund vorgeschlagen wird und wann unsere selbstfahrenden Autos künftig bremsen werden - das bestimmen Algorithmen. Algorithmen sind eine Folge von Anweisungen, die ein Problem lösen können, wenn sie korrekt ausgeführt werden. Sie sollen systematisch sein, logisch, und auch beim tausendsten Mal noch zum selben Ergebnis führen. Doch jeder Algorithmus wird von Menschen programmiert, die Teil bestimmter Gesellschaftsschichten sind und ihre - meist unbewussten - Neigungen und Vorurteile in ihre Arbeit einfließen lassen. Und je stärker die Welt von Technik getrieben wird, desto stärker zeigt sich, dass das ein Problem ist.

"Wir gehen davon aus, dass Technik neutral ist", sagt Corinna Bath. Sie ist Informatikerin und forscht zu Technikentwicklung und Gender an der TU Braunschweig. "Aber es gibt keine neutralen Algorithmen." Bath zufolge ist Technik immer auch von sozialen Umständen beeinflusst. Doch die wenigsten machen sich das bewusst.

Dabei können Algorithmen durchaus gefährlich sein, wenn sie so programmiert sind, dass sie rassistische oder sexistische Entscheidungen treffen. Dies muss nicht absichtlich geschehen: Meist sind sich die Programmierer nicht bewusst, dass ihre Vorurteile sich auf den Code auswirken.

Bei der Google-Suche nach dem Begriff CEO findet die Suchmaschine etwa überproportional viele Bilder von weißen Männern. In der Realität sind etwa 27 Prozent aller CEOs in den USA weiblich. Laut einer Untersuchung der University of Washington tauchen bei der Bildersuche allerdings nur in elf Prozent aller Fälle Bilder von Frauen auf - einer der ersten Treffer ist übrigens die Barbie-CEO-Puppe.

Frauen sollten nicht studieren - und Frauen sind keine Chefs

"Die technische Entwicklung geht immer weiter und wenn wir nicht bald anfangen, Algorithmen auf ihre ethische Tauglichkeit zu untersuchen, könnte das ein großes Drama werden", sagt Bath. Sie beobachtet zum Beispiel, dass in der Technikentwicklung oft antiquierte Geschlechterrollen reproduziert werden - dass Algorithmen also sexistischer sind als unsere heutige Gesellschaft. Und auch die Menschen, die Algorithmen nutzen, hinterfragen diese in der Regel nicht, sondern nehmen die gelieferten Ergebnisse als wahr und richtig hin.

Gibt man bei der Google Suche "Frauen sollten" ein, wird die Anfrage automatisch vervollständigt zu Formulierungen wie "Frauen sollten nicht studieren", "Frauen sollten keine Hosen tragen", "Frauen sollten keine Rechte haben". Google zufolge werden Vorhersagen in der Autovervollständigung automatisch von einem Algorithmus generiert, ohne jegliches menschliches Zutun. Der Algorithmus basiere auf etlichen objektiven Faktoren, unter anderem der Häufigkeit, mit der ein Wort gesucht werde. Deshalb könnten die angezeigten Suchbegriffe "seltsam oder überraschend" wirken. Eine andere Bezeichnung dafür wäre diskriminierend. Die Organisation UN Women kritisierte diese angebliche "Autocomplete-Wahrheit" schon 2013 in einer großen Kampagne: Frauen sollten heutzutage überall als gleichberechtigt angesehen werden - auch auf Google.

Die vorherrschende Hautfarbe im Internet ist weiß

Und es geht noch drastischer: Eine Untersuchung der Carnegie Mellon University zeigt, dass Frauen bei Google weniger Anzeigen für gut bezahlte Jobs mit Führungspositionen angezeigt bekommen als Männer. Google-Suchen nach Namen, die afroamerikanisch klingen, werden häufiger mit Anzeigen verknüpft, die einen Eintrag im Vorstrafenregister implizieren, so eine Studie von Harvard-Professorin Latanya Sweeney aus dem Jahr 2013.

Bei der Suche nach dem Wort Hand zeigt Google größtenteils Bilder von Händen mit heller Hautfarbe. Solche Symbolbilder, auch Stockfotos genannt, werden genutzt, um Texte zu illustrieren, in denen es etwa um medizinische Themen, Kosmetik oder Schmuck geht, aber auch, wenn ein Smartphone oder eine Spielfigur gehalten werden müssen oder die Verbundenheit mehrerer Menschen bildlich dargestellt werden soll. Braune oder schwarze Hände werden für solche Zwecke kaum verwendet. Die Initiative World White Web versucht deshalb, mit genau diesem Beispiel auf die "Weißheit" des Netzes aufmerksam zu machen. Sie bietet Stockfotos von Händen in unterschiedlichen Hautfarben an, die kostenfrei genutzt werden können und zeigen sollen: Die Welt ist nicht nur weiß.

Nicht neutral: Wenn Schwarze mit Affen verwechselt werden

Dass Dinge wie diese passieren, liegt Bath zufolge an der Technikentwicklung selbst. Die Programmierer sind oft weiße Männer, also Mitglieder einer sehr homogenen Gruppe. Sie entwickeln Produkte in der Annahme, dass die späteren Nutzer ähnliche Interessen und Kompetenzen haben wie sie selbst. Außerdem haben Entwickler oft keine realen Personen im Kopf, sondern Stereotype. So entstehen etwa für Senioren geeignete Telefone mit besonders großen Tasten - schließlich können alte Menschen oft nicht mehr gut sehen. Dabei ist alt sein nicht ausschließlich mit Fehlsichtigkeit gleichzusetzen. Auch andere gesundheitliche Probleme wie Demenz oder Hörprobleme beeinflussen, wie alte Menschen Telefone nutzen und welche Funktionen für sie relevant sind. Doch das ist vielen Programmierern nicht bewusst.

Jede neue technische Entwicklung kann erneut zu Diskriminierung führen. Etwa, wenn Fotos automatisch mit Schlagworten versehen werden, wie bei Google und Flickr. Die Dienste erkennen, was auf einem Bild zu sehen ist: Ein Foto von einem Dackel wird mit dem Schlagwort Hund versehen, ein Bild vom Eiffelturm der Stadt Paris zugeordnet. Der Algorithmus wurde bei der Entwicklung mit Informationen und Beispielen gefüttert, sodass er alle möglichen Kategorien von sich aus erkennen kann, so das Versprechen. Doch nicht immer funktioniert das: So wurden Fotos von schwarzen Personen von Flickr mit dem Schlagwort Affe und von Google mit dem Schlagwort Gorilla versehen. Weiße Menschen wurden nicht mit Tieren verwechselt. Nach Protesten entschuldigte sich Google - und entfernte das Gorilla-Label komplett.

Technik kann genauso gut diskriminieren wie Menschen

Algorithmen werden auch von Unternehmen genutzt, etwa um aus einem Berg von Job-Bewerbern diejenigen auszusuchen, die zum Gespräch eingeladen werden. Andreas Dewes, Physiker und Datenwissenschaftler, beschäftigt sich mit Diskriminierung und Ethik in der datengetriebenen Gesellschaft. Mit einer Formel will er berechnen, ob der von ihm gewählte Algorithmus für die Bewerberwahl sexistisch ist. Oder anders gesagt: Werden Männer bevorzugt zu Bewerbungsgesprächen eingeladen und Frauen schlechter behandelt? Dies wäre der Fall, wenn Frauen und Männer mit gleicher Qualifikation signifikant unterschiedlich vom Algorithmus bewertet würden. Wäre der Algorithmus neutral, hätte das Geschlecht keinerlei Einfluss darauf, ob ein Bewerber ausgewählt wird oder nicht.

Dewes' Simulation mit mehr als 10 000 Stichproben zeigt: Je mehr Informationen der Algorithmus über eine Person hat, desto stärker kann er sie diskriminieren. Es muss nicht immer das Geschlecht sein: Auch über Hautfarbe oder Gesellschaftsschicht lassen sich online öffentlich verfügbare Daten finden - Stichwort Big Data. "Wenn der Algorithmus durch irgendeinen Zufall vollen Zugriff auf eine bestimmte Information hat, kann er genauso gut diskriminieren wie ein Mensch", sagt Dewes. "Es kann viel schiefgehen, wenn man Algorithmen nutzt."

Nur Bewusstsein kann helfen, das Problem zu lösen

Da über jeden Menschen immer mehr Daten verfügbar sind, steigt die Wahrscheinlichkeit, dass Algorithmen Informationen finden, die Grundlage für Diskriminierung sein können. Besonders kritisch wird es, wenn Entscheidungen, die unser Leben tiefgehend beeinflussen, von derartigen Algorithmen gefällt werden. "Wie gehe ich etwa damit um, wenn ich aufgrund meines Onlineverhaltens als Terrorist eingestuft werde?", sagt Bath. "Algorithmen können schließlich auch falsche Informationen liefern."

Wenn Algorithmen nicht so vorurteilsbehaftet handeln sollen wie Menschen, gibt es nur eine Lösung: Die Entwickler selbst müssen sich des Problems bewusst werden - und zwar schon in ihrer Ausbildung. Und auch die Nutzer sollten im Hinterkopf behalten, dass jeder Algorithmus, den sie nutzen, nicht im luftleeren Raum entstanden ist, sondern von einem Menschen programmiert wurde, der nicht frei von Fehlern und Vorurteilen ist.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: