Süddeutsche Zeitung

Künstliche Intelligenz:Wie Algorithmen Hass und Vorurteile zementieren

Lesezeit: 6 Min.

Künstliche Intelligenzen lernen, Entscheidungen zu fällen. Die Kriterien legen allerdings jene Menschen fest, die sie mit den Grunddaten füttern.

Von Michael Moorstedt

Algorithmen regulieren und organisieren unser Leben online und immer häufiger auch offline. Daten und Zahlen werden eingegeben, und heraus kommt eine Anweisung: Wer bekommt einen Kredit, einen Job und eine Zahnzusatzversicherung? All das entscheiden immer häufiger nicht die netten Sachbearbeiter, sondern Algorithmen, nüchtern und vermeintlich unbestechlich. Es zählen nicht mehr der persönliche Eindruck und das tadellose Auftreten des Bittstellers, sondern nur noch Zahlen und Mathematik.

Manchmal wirken Algorithmen dabei bevormundend. Etwa wenn Facebook oder Google mal wieder anhand von längst zurückliegenden Klicks entscheiden, was der Nutzer auf seinem Bildschirm zu sehen bekommt oder nicht. Manchmal sind Algorithmen regelrecht kriminell, etwa wenn sie die Abgaskontrollanlage eines Dieselfahrzeugs dahingehend manipulieren, dass das Auto in Prüfsituationen weniger Stickoxide emittiert.

Forderungen nach "vorurteilsfreiem Programmieren"

Hin und wieder können sie sogar aufs Tiefste in das Leben der von ihnen Betroffenen eingreifen. In den USA berücksichtigen Gerichte bei der Frage, ob ein Straftäter rückfällig wird oder nicht, die Empfehlungen eines Algorithmus des Softwareherstellers Equivant. Der berechnete nach Recherchen des Investigativportals Pro Publica bei Afroamerikanern fast doppelt so häufig wie bei Weißen fälschlicherweise eine hohe Rückfallgefahr. Gleichzeitig wurde ein späteres, erneutes Vergehen weißer Straftäter fast doppelt so oft nicht vorhergesagt wie bei Schwarzen.

Von "Algorithmic Bias" ist dann die Rede, also von Befangenheit oder Vorurteilen eines Programms. Aufgrund von Beispielen wie diesem forderte Justizminister Heiko Maas deshalb vor Kurzem auf einer Digitalkonferenz ein "digitales Antidiskriminierungsgesetz" und "vorurteilsfreies Programmieren".

"Im Rechtsstaat sind alle Entscheidungen begründungspflichtig. Denn nur so kann überprüft werden, ob die Grundlagen, auf denen sie getroffen wurden, richtig, rechtmäßig und auch verhältnismäßig sind", sagte Maas. "Eine solche Überprüfbarkeit brauchen wir auch, wenn Algorithmen Entscheidungen vorbereiten." Es könne nicht sein, so der Minister, dass Menschen auf ihre Vergangenheit reduziert werden und ihnen so wichtige Chancen für einen Neustart verbaut werden.

Mathematische Formeln haben keinen Vorsatz, der entsteht erst durch das Geschäftsmodell

Kommen nach dem Netzwerkdurchsetzungsgesetz, das Hassparolen in sozialen Netzwerken ahndet, nun also Regeln für gerechtere Software? So schnell wird das nicht passieren. Der Bundestag hat Sommerpause. Aus der Opposition kam dann auch prompt der Vorwurf, hier werde nur Wahlkampf betrieben. Das ist ein bisschen ungerecht. Schließlich brachte Maas bereits vor gut anderthalb Jahren die Idee für einen "Algorithmen-TÜV" vor und sagte: "Kein Mensch darf zum Objekt eines Algorithmus werden." Das hörte sich schon damals fast genauso gut an, wie es weltfremd war. Schließlich ereignet sich die Objektwerdung des Nutzers im Kleinen ja schon jedes Mal, wenn er nur eine Google-Suche durchführt.

Trotzdem scheint es so, als hätte das Justizministerium unter Maas Gefallen an der Regulierung des Online-Daseins gefunden. Die Zeiten vom "Internet als rechtsfreiem Raum" sind endgültig vorbei. Fraglich ist aber, ob es den Maas'schen Vorschlag überhaupt noch braucht. Denn in der EU-Datenschutz-Grundverordnung, die ab Mai 2018 in sämtlichen Mitgliedsstaaten anzuwenden ist, finden sich ganz ähnliche Passagen. Sie regelt nicht nur das bereits bekannte "Recht auf Vergessen", sondern behandelt in Artikel 15 auch ein "Auskunftsrecht". Dort heißt es: Wenn eine Person von der automatisierten Entscheidungsfindung eines Algorithmus betroffen ist, muss der Verantwortliche "aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung für die betroffene Person" zur Verfügung stellen.

Bis die Formulierung in der EU-Grundverordnung so festgeschrieben war, wie sie nun steht, haben die Lobbyisten der IT-Industrie lange Jahre gegen sie gekämpft, und auch für den Vorschlag von Maas hat die Branche nicht viel übrig. "Überflüssig" und "innovationsfeindlich" zählen noch zu den netteren Adjektiven, die Unternehmensvertretern und Verbandssprechern zu den Ideen des Ministers einfielen. Ein derartiges Gesetz sende ein "völlig falsches Signal an internationale Investoren". Man berief sich auf Betriebsgeheimnisse, es hieß, Deutschland würde sich selbst "von digitalen Entwicklungen abschneiden", und sowieso sei ein Algorithmus nicht mehr als Mathematik und damit an sich vorurteilsfrei.

Das ist zunächst einmal nicht falsch, aber trotzdem zu kurz gedacht. Natürlich hat eine mathematische Formel keine inhärente Intention. Die entsteht erst durch das Geschäftsmodell, zu dessen Umsetzung sie dient. Wenn dieses Geschäft nun aber vorsieht, dass manche Nutzer wegen ihres sozialen Hintergrunds oder ihrer Persönlichkeit eine Dienstleistung nicht nutzen können und andere schon, kann man das sehr wohl als automatisierte Diskriminierung bezeichnen. Das ist umso problematischer, da ein Großteil derjenigen, die dem Wirken der Algorithmen ausgesetzt sind, nicht einmal von deren Existenz wissen: In einer Befragung von Facebook-Nutzern kam heraus, dass mehr als die Hälfte von ihnen nicht wusste, dass ein Algorithmus die Inhalte in ihrem Newsfeed vorsortiert.

Selbst die Entwickler verstehen nicht mehr genau, was ihre Programme machen

Transparentere Algorithmen erscheinen also auf einmal doch irgendwie erstrebenswert. Aber wie sieht es eigentlich mit der Umsetzbarkeit aus? Es scheint, als enteile die technologische Entwicklung der Rechtsprechung einmal mehr. Das liegt zum einen an der Natur der Programme selbst. Zeitgemäße Software, selbstlernende Maschinen und sogenannte "Deep Neural Networks" basieren nicht mehr auf den mehr oder weniger simplen Wenn-dann-Entscheidungspfaden, die ein Algorithmus noch vor ein paar Jahren abschreiten musste, um zum Ergebnis zu kommen.

Zwischen Input und Output durchlaufen die neuronalen Netzwerke zahlreiche Schichten. Wenn es zum Beispiel darum geht, ein neuronales Netzwerk darauf zu programmieren, Gesichter zu erkennen, würde die erste Schicht vielleicht Konturen identifizieren, die nächste Farben, und andere wiederum würden nur der Erkennung von Augen oder Ohren dienen.

Mittlerweile gibt es jedoch neuronale Netzwerke mit so vielen Schichten, dass selbst die Entwickler nicht mehr in der Lage sind, nachzuvollziehen, was in diesen vor sich geht. Sie sehen zwar, dass das Resultat korrekt ist, wissen aber nicht, wie die Software darauf kommt. Das könnte bei dem geplanten EU-Auskunftsrecht zum Problem werden, schließlich weiß doch schon jeder Mittelschüler, dass der Rechenweg mindestens genauso wichtig ist wie das Ergebnis. Anders gesagt: Wie soll ein mündiger Bürger verstehen, warum das Programm ihm keinen Kredit gewährt, wenn selbst dessen Entwickler es nicht verstehen?

Ein weiteres Problem besteht in der Art und Weise, wie diese sogenannten künstlichen Intelligenzen (KI) programmiert werden. Die IT-Unternehmen brauchen Unmengen an Daten, um ihre KI-Systeme zu trainieren. Je mehr, desto besser. Nur wenn man einer Bilderkennungssoftware unzählige Male vorsagt, welches Tier auf einem Foto eine Katze ist, wird sie diese irgendwann von selbst erkennen können. Nur wenn die Steuerungsprogramme eines autonomen Autos vielfach gezeigt bekommen, was ein Hindernis ist, kann man sie irgendwann bedenkenlos auf die Straßen schicken.

Nach 24 Stunden gab der Chatbot den Satz von sich: "Hitler hatte Recht, ich hasse die Juden."

Das Problem ist nur, dass all diese "Trainingsdaten" nicht gerade unter Laborbedingungen erzeugt werden. Sie sind weder steril noch objektiv. Oft werden sie von schlecht bezahlten Klickarbeitern auf Crowdsourcing-Plattformen erstellt. Das Start-up Mighty AI etwa lagert die Datengenerierung an eine Horde Freiwilliger aus. Mittels einer App bringen die Nutzer der Software in ihrer Freizeit bei, wie die Welt funktioniert, und verdienen sich so ein kleines Taschengeld. Mehr als 200 000 Menschen kreisen auf Fotos Straßenschilder ein oder markieren Passanten, Bäume und Straßenlaternen, sie verschlagworten Bilder oder setzen für Übersetzungsprogramme Wörter in Zusammenhänge und sorgen so dafür, ob wissend oder nicht, dass ihre Sicht auf die Dinge, wenn auch nur in homöopathischer Dosis, in die Software übertragen wird.

Die vermeintliche Objektivität der Maschinen speist sich also aus der Subjektivität der Menschen. Das prominenteste Beispiel dafür ist der Chatbot Tay. Microsoft hatte das Programm im vergangenen Jahr in Form eines Twitter-Accounts veröffentlicht. Tay sollte lockere Konversation betreiben und im Gespräch von den menschlichen Nutzern lernen. Eine Kumpel-KI. Nicht einmal 24 Stunden später wurde Tay wieder abgeschaltet. Statt harmlosem Smalltalk gab die Software nun sexistische und rassistische Sprüche von sich, darunter: "Hitler hatte recht, ich hasse die Juden."

Seit dem Eklat um Tay häufen sich die Beispiele für fest in KI-Software eingeschriebene Vorurteile. Da sind etwa Übersetzungsprogramme, die geschlechtsneutrale Berufsbezeichnungen vermännlichen, wenn es um High-Potenzial-Professionen geht, und verweiblichen, wenn es sich um niedere Arbeiten handelt. Da ist eine Software, die dafür geschult wurde, die Schönheit von Menschen anhand von eingesandten Fotos zu bewerten, und beinahe ausschließlich weiße Nutzer auswählte. Und da ist nicht zuletzt die Google-Suchmaschine, die anhand des Begriffs "seriöse Frisuren" sorgfältig gescheitelte westliche Köpfe ausspuckt und beim Gegenteil, also "unseriöse Frisuren", haufenweise Bilder von Rastalocken.

Die Maschinen agieren so, wie die Menschen es ihnen beibringen. So besteht die Gefahr, dass sich all der Sexismus und Rassismus, der von den Menschen in den letzten Jahrzehnten ins Netz geschrieben wurde, auch in den KI-Systemen abbilden wird. Aus diesen voreingenommenen Daten könnte eine Art von Feedback-Schleife entstehen. Ein Phänomen, das man in der Psychologie Bestätigungsfehler nennt: Das System findet nicht, was tatsächlich passiert. Sondern nur das, was es von vornherein erwartet.

Bestens informiert mit SZ Plus – 4 Wochen für 0,99 € zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.3620668
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 09.08.2017
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.