bedeckt München 27°

Netzkolumne:Weißmalerei

Eine Fotosoftware verändert die Haut schwarzer Menschen. Auch andere KI-Programme verstärken gesellschaftliche Vorurteile.

Von Michael Moorstedt

Eine Unstimmigkeit, ja sogar ein Streit auf Twitter ist noch nicht unbedingt eine Meldung wert. Uneinigkeit zwischen den Gesprächspartnern scheint auf der Kurznachrichtenplattform ja eher die Standardausgangssituation zu sein. Es kommt da schon auch auf die Beteiligten, den Gegenstand und den Ausgang an.

Also der Reihe nach. Im Ring standen in der einen Ecke Timnit Gebru, Chefin einer Arbeitsgruppe zu Ethik in künstlicher Intelligenz bei Google, und in der anderen Ecke Yann LeCun, seines Zeichens oberster Chef der KI-Abteilung bei Facebook. Für die nötige Prominenz der Kontrahenten war also schon mal gesorgt. Streitpunkt war ein neues KI-Programm, dessen Macher behaupteten, mit ihm stark verpixelte Fotos automatisch nachschärfen zu können. Das Problem ist nur, dass die Software die Porträts schwarzer Menschen in die von Weißen verwandelte.

Wenn so etwas passiert, ist die Rede von Algorithmic Bias, also einer durch Rechenoperationen entstandenen Ungerechtigkeit oder von Vorurteilen. Beispiele dafür gibt es eine ganze Menge. Seien es Gesichter mit dunkler Hautfarbe, die von Kameras nicht erkannt werden, oder Stimmen mit weiblicher Färbung, die von Mikrofonen nicht gehört werden. Jene Programme, die immer häufiger darüber entscheiden, wer einen Job, einen Kredit oder gar eine Gefängnisstrafe bekommt, sind so entworfen, dass sie gewisse Menschen qua Design ausschließen.

Ist man automatisch neutral, wenn man sich der "neutralen" Mathematik bedient?

Um dieses Phänomen zu erklären, bediente man sich unter KI-Forschern eine geraume Zeit lang der gleichen, sehr bequemen Ausrede, die auch LeCun auf Twitter ins Feld führte. Die Argumentationslinie läuft ungefähr folgendermaßen: Wann immer eine Software diskriminierende Ergebnisse liefert, dann liegt das an den Daten, mit denen sie trainiert wurde. Und diese Daten sind eben wiederum Produkt einer diskriminierenden Gesellschaft. Das Feld der künstlichen Intelligenz und des maschinellen Lernens als Wissenschaft an sich sei jedoch neutral.

Gegen dieses Denken regt sich in letzter Zeit immer heftigerer Widerstand. Die eigentliche Frage sei doch, wie und ob die Software bestehende Machtverhältnisse verändere, schrieb Pratyusha Kalluri, KI-Forscherin an der Universität von Stanford, in der vergangenen Woche in einem Meinungsstück im Fachjournal Nature. Der gar nicht so komplexe Kern ihrer Kritik: Selbst wenn die aus der Gesellschaft extrahierten Daten vorurteilsfrei wären, änderte das nichts daran, dass Missstände existieren.

Die KI-Gemeinschaft muss sich einer unangenehmen Debatte stellen. Ist man wirklich automatisch neutral, wenn man sich der vermeintlich neutralen Mathematik bedient, um gesellschaftliche Missstände nicht nur abzubilden, sondern womöglich auch noch zu verstärken? Künstliche Intelligenz, so wie sie momentan existiert, ist im Kern ihres Wesens eine Technologie, die zu einem überwältigenden Teil den ohnehin schon Mächtigen dient und die bestehenden Verhältnisse und Vorurteile zementiert, anstatt sie infrage zu stellen. Es geht also eigentlich nicht darum, das entsprechende KI-System oder einen intransparenten Algorithmus nachzujustieren, sondern darum zu überlegen, ob solche Systeme überhaupt geeignet sind, um in dem Ausmaß in die Gesellschaft einzugreifen, wie es momentan der Fall ist.

Deshalb hat Kalluri im vergangenen Jahr die Forschungsgemeinschaft "Radical AI" gegründet, um für mehr Problembewusstsein zu sorgen. Denn Minderheiten und gesellschaftlich diskriminierte Gruppen sind nicht nur in den Datensets unterrepräsentiert, sondern auch in der Forschungsgemeinde an sich, die, wie überall sonst auch, hauptsächlich weiß und männlich ist.

Den Ausgang des Twitter-Schlagabtauschs wollen wir schließlich noch auflösen. Der Streit mündete darin, dass LeCun seinen Rückzug von der Plattform bekannt gab. Das wiederum ist ja eine sehr alte Strategie. Angesichts einer argumentativen Schlappe verlässt der Unterlegene einfach den Raum.

© SZ vom 13.07.2020

Lesen Sie mehr zum Thema

Zur SZ-Startseite