Künstliche Intelligenz:Sprache und Vorurteil

CeBIT 2015

In Sachen Spracherkennung tun sich Computer immer noch schwer.

(Foto: dpa)

Computer lernen immer besser, die menschliche Sprache zu verstehen und zu verwenden. Allerdings schleichen sich dabei auch Sexismen ein.

Von Michael Moorstedt

Eine der vielen Paradoxien der modernen Welt geht so: Computer leiten uns durch den Verkehr, raten uns, was wir Verwandten zu Weihnachten schenken sollen, und übersetzen ganze Sätze in Echtzeit von Deutsch auf Thai. Trotzdem sind sie ziemlich dumm. Gerade in Sachen Spracherkennung tun sich die Maschinen schwer. Google etwa leistet sich deshalb eine ganze Kohorte promovierter Linguisten, die hoch entwickelten neuronalen Netzwerken wieder und wieder vorführen, wie man aus einem Strang von Wörtern relevante Informationen extrahiert.

Der interne Name der Google-Abteilung lautet passenderweise Pygmalion. Wie im Schauspiel von George Bernard Shaw wird hier einem ungebildeten Wesen die Sprache, nicht nur der feinen, sondern gleich aller Leute beigebracht. Denn die von Menschen geleistete Herausarbeitung von Sinn geschieht in über 20 Sprachen gleichzeitig.

Weil die den Computern auf diese Weise dargelegten Daten zwar sehr präzise, aber auch ungeheuer zeitaufwendig zu produzieren sind, greift man gerne auf massive, mehrere Milliarden Wörter umfassende Datensätze zurück. Diese sogenannten Word Embeddings speisen sich etwa aus der Wikipedia oder Twitter und übersetzen die Beziehungen von Wörtern zueinander in mathematische Größen. Je näher sich die Begriffe sind, desto höher der Wert und die Wahrscheinlichkeit, dass sich ein durch die Word Embeddings geschultes Programm daran orientiert.

Frau: Hausfrau

Wie sich langsam herausstellt, wird die Verwendung dieser Mammut-Datensätze zu einem Problem. Denn durch sie bilden sich die Sexismen, die von den Menschen ins Netz geschrieben werden, auch in den KI-Systemen ab. So wird etwa das Wort Programmierer automatisch männlich konnotiert. Der dem Wort Frau am nächsten liegende Begriff ist dagegen: Hausfrau.

Ein Forscherteam von Microsoft entwickelte daraufhin ein System, das prüfen sollte, inwieweit sich dieser sogenannte "Algorithmic Bias", also die auf Vorurteilen basierenden Algorithmen, bereits in der Realität niederschlägt. Sie schrieben ein Programm, das Websites nach Relevanz sortieren sollte. Bald stellte sich heraus, dass Informationen über weibliche Programmierer im Vergleich zu männlichen Kollegen als weniger relevant eingestuft werden. Denkt man an Onlinebewerbungen wird schnell klar, dass das zu einem Problem werden könnte.

Die Antwort auf die Frage, ob es erstrebenswert ist, die Vorurteile in den Maschinen auszumerzen ist im Übrigen gar nicht so eindeutig. Laut Forschern der Universität Princeton kann man den Computern zwar einprogrammieren, den Sexismus zu entfernen, damit beschränkt man sie aber auch in ihrer Funktionsfähigkeit. Vor allem wenn diese Maschinen dazu benutzt werden sollen, Vorhersagen über die echte Welt zu treffen. Man könne von den Datensätzen halten, was man will, trotz allem repräsentieren sie eben genau diese echte Welt. So ungerecht wie sie nun einmal leider ist.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: