Bis die Formulierung in der EU-Grundverordnung so festgeschrieben war, wie sie nun steht, haben die Lobbyisten der IT-Industrie lange Jahre gegen sie gekämpft, und auch für den Vorschlag von Maas hat die Branche nicht viel übrig. "Überflüssig" und "innovationsfeindlich" zählen noch zu den netteren Adjektiven, die Unternehmensvertretern und Verbandssprechern zu den Ideen des Ministers einfielen. Ein derartiges Gesetz sende ein "völlig falsches Signal an internationale Investoren". Man berief sich auf Betriebsgeheimnisse, es hieß, Deutschland würde sich selbst "von digitalen Entwicklungen abschneiden", und sowieso sei ein Algorithmus nicht mehr als Mathematik und damit an sich vorurteilsfrei.
Das ist zunächst einmal nicht falsch, aber trotzdem zu kurz gedacht. Natürlich hat eine mathematische Formel keine inhärente Intention. Die entsteht erst durch das Geschäftsmodell, zu dessen Umsetzung sie dient. Wenn dieses Geschäft nun aber vorsieht, dass manche Nutzer wegen ihres sozialen Hintergrunds oder ihrer Persönlichkeit eine Dienstleistung nicht nutzen können und andere schon, kann man das sehr wohl als automatisierte Diskriminierung bezeichnen. Das ist umso problematischer, da ein Großteil derjenigen, die dem Wirken der Algorithmen ausgesetzt sind, nicht einmal von deren Existenz wissen: In einer Befragung von Facebook-Nutzern kam heraus, dass mehr als die Hälfte von ihnen nicht wusste, dass ein Algorithmus die Inhalte in ihrem Newsfeed vorsortiert.
Selbst die Entwickler verstehen nicht mehr genau, was ihre Programme machen
Transparentere Algorithmen erscheinen also auf einmal doch irgendwie erstrebenswert. Aber wie sieht es eigentlich mit der Umsetzbarkeit aus? Es scheint, als enteile die technologische Entwicklung der Rechtsprechung einmal mehr. Das liegt zum einen an der Natur der Programme selbst. Zeitgemäße Software, selbstlernende Maschinen und sogenannte "Deep Neural Networks" basieren nicht mehr auf den mehr oder weniger simplen Wenn-dann-Entscheidungspfaden, die ein Algorithmus noch vor ein paar Jahren abschreiten musste, um zum Ergebnis zu kommen.
Zwischen Input und Output durchlaufen die neuronalen Netzwerke zahlreiche Schichten. Wenn es zum Beispiel darum geht, ein neuronales Netzwerk darauf zu programmieren, Gesichter zu erkennen, würde die erste Schicht vielleicht Konturen identifizieren, die nächste Farben, und andere wiederum würden nur der Erkennung von Augen oder Ohren dienen.
Mittlerweile gibt es jedoch neuronale Netzwerke mit so vielen Schichten, dass selbst die Entwickler nicht mehr in der Lage sind, nachzuvollziehen, was in diesen vor sich geht. Sie sehen zwar, dass das Resultat korrekt ist, wissen aber nicht, wie die Software darauf kommt. Das könnte bei dem geplanten EU-Auskunftsrecht zum Problem werden, schließlich weiß doch schon jeder Mittelschüler, dass der Rechenweg mindestens genauso wichtig ist wie das Ergebnis. Anders gesagt: Wie soll ein mündiger Bürger verstehen, warum das Programm ihm keinen Kredit gewährt, wenn selbst dessen Entwickler es nicht verstehen?
Ein weiteres Problem besteht in der Art und Weise, wie diese sogenannten künstlichen Intelligenzen (KI) programmiert werden. Die IT-Unternehmen brauchen Unmengen an Daten, um ihre KI-Systeme zu trainieren. Je mehr, desto besser. Nur wenn man einer Bilderkennungssoftware unzählige Male vorsagt, welches Tier auf einem Foto eine Katze ist, wird sie diese irgendwann von selbst erkennen können. Nur wenn die Steuerungsprogramme eines autonomen Autos vielfach gezeigt bekommen, was ein Hindernis ist, kann man sie irgendwann bedenkenlos auf die Straßen schicken.
Nach 24 Stunden gab der Chatbot den Satz von sich: "Hitler hatte Recht, ich hasse die Juden."
Das Problem ist nur, dass all diese "Trainingsdaten" nicht gerade unter Laborbedingungen erzeugt werden. Sie sind weder steril noch objektiv. Oft werden sie von schlecht bezahlten Klickarbeitern auf Crowdsourcing-Plattformen erstellt. Das Start-up Mighty AI etwa lagert die Datengenerierung an eine Horde Freiwilliger aus. Mittels einer App bringen die Nutzer der Software in ihrer Freizeit bei, wie die Welt funktioniert, und verdienen sich so ein kleines Taschengeld. Mehr als 200 000 Menschen kreisen auf Fotos Straßenschilder ein oder markieren Passanten, Bäume und Straßenlaternen, sie verschlagworten Bilder oder setzen für Übersetzungsprogramme Wörter in Zusammenhänge und sorgen so dafür, ob wissend oder nicht, dass ihre Sicht auf die Dinge, wenn auch nur in homöopathischer Dosis, in die Software übertragen wird.
Die vermeintliche Objektivität der Maschinen speist sich also aus der Subjektivität der Menschen. Das prominenteste Beispiel dafür ist der Chatbot Tay. Microsoft hatte das Programm im vergangenen Jahr in Form eines Twitter-Accounts veröffentlicht. Tay sollte lockere Konversation betreiben und im Gespräch von den menschlichen Nutzern lernen. Eine Kumpel-KI. Nicht einmal 24 Stunden später wurde Tay wieder abgeschaltet. Statt harmlosem Smalltalk gab die Software nun sexistische und rassistische Sprüche von sich, darunter: "Hitler hatte recht, ich hasse die Juden."
Seit dem Eklat um Tay häufen sich die Beispiele für fest in KI-Software eingeschriebene Vorurteile. Da sind etwa Übersetzungsprogramme, die geschlechtsneutrale Berufsbezeichnungen vermännlichen, wenn es um High-Potenzial-Professionen geht, und verweiblichen, wenn es sich um niedere Arbeiten handelt. Da ist eine Software, die dafür geschult wurde, die Schönheit von Menschen anhand von eingesandten Fotos zu bewerten, und beinahe ausschließlich weiße Nutzer auswählte. Und da ist nicht zuletzt die Google-Suchmaschine, die anhand des Begriffs "seriöse Frisuren" sorgfältig gescheitelte westliche Köpfe ausspuckt und beim Gegenteil, also "unseriöse Frisuren", haufenweise Bilder von Rastalocken.
Die Maschinen agieren so, wie die Menschen es ihnen beibringen. So besteht die Gefahr, dass sich all der Sexismus und Rassismus, der von den Menschen in den letzten Jahrzehnten ins Netz geschrieben wurde, auch in den KI-Systemen abbilden wird. Aus diesen voreingenommenen Daten könnte eine Art von Feedback-Schleife entstehen. Ein Phänomen, das man in der Psychologie Bestätigungsfehler nennt: Das System findet nicht, was tatsächlich passiert. Sondern nur das, was es von vornherein erwartet.