Künstliche Intelligenz Wie Algorithmen Hass und Vorurteile zementieren

Künstliche Intelligenzen funktionieren heute so vielschichtig, dass selbst ihre Entwickler nicht mehr nachvollziehen können, wie sie zu ihren Ergebnissen kommen. Auch wenn sie über menschliche Schicksale entscheiden.

(Foto: Johannes Simon)

Künstliche Intelligenzen lernen, Entscheidungen zu fällen. Die Kriterien legen allerdings jene Menschen fest, die sie mit den Grunddaten füttern.

Von Michael Moorstedt

Algorithmen regulieren und organisieren unser Leben online und immer häufiger auch offline. Daten und Zahlen werden eingegeben, und heraus kommt eine Anweisung: Wer bekommt einen Kredit, einen Job und eine Zahnzusatzversicherung? All das entscheiden immer häufiger nicht die netten Sachbearbeiter, sondern Algorithmen, nüchtern und vermeintlich unbestechlich. Es zählen nicht mehr der persönliche Eindruck und das tadellose Auftreten des Bittstellers, sondern nur noch Zahlen und Mathematik.

Manchmal wirken Algorithmen dabei bevormundend. Etwa wenn Facebook oder Google mal wieder anhand von längst zurückliegenden Klicks entscheiden, was der Nutzer auf seinem Bildschirm zu sehen bekommt oder nicht. Manchmal sind Algorithmen regelrecht kriminell, etwa wenn sie die Abgaskontrollanlage eines Dieselfahrzeugs dahingehend manipulieren, dass das Auto in Prüfsituationen weniger Stickoxide emittiert.

Forderungen nach "vorurteilsfreiem Programmieren"

Hin und wieder können sie sogar aufs Tiefste in das Leben der von ihnen Betroffenen eingreifen. In den USA berücksichtigen Gerichte bei der Frage, ob ein Straftäter rückfällig wird oder nicht, die Empfehlungen eines Algorithmus des Softwareherstellers Equivant. Der berechnete nach Recherchen des Investigativportals Pro Publica bei Afroamerikanern fast doppelt so häufig wie bei Weißen fälschlicherweise eine hohe Rückfallgefahr. Gleichzeitig wurde ein späteres, erneutes Vergehen weißer Straftäter fast doppelt so oft nicht vorhergesagt wie bei Schwarzen.

Von "Algorithmic Bias" ist dann die Rede, also von Befangenheit oder Vorurteilen eines Programms. Aufgrund von Beispielen wie diesem forderte Justizminister Heiko Maas deshalb vor Kurzem auf einer Digitalkonferenz ein "digitales Antidiskriminierungsgesetz" und "vorurteilsfreies Programmieren".

"Im Rechtsstaat sind alle Entscheidungen begründungspflichtig. Denn nur so kann überprüft werden, ob die Grundlagen, auf denen sie getroffen wurden, richtig, rechtmäßig und auch verhältnismäßig sind", sagte Maas. "Eine solche Überprüfbarkeit brauchen wir auch, wenn Algorithmen Entscheidungen vorbereiten." Es könne nicht sein, so der Minister, dass Menschen auf ihre Vergangenheit reduziert werden und ihnen so wichtige Chancen für einen Neustart verbaut werden.

Überwachung Die einen sagen "Smart City", die anderen "Polizeistaat"
Dubai

Die einen sagen "Smart City", die anderen "Polizeistaat"

In Dubai gehen Robocops auf Streife, Drohnen überwachen den Verkehr. Angeblich alles nur, um die Stadt zur glücklichsten der Welt zu machen.   Von Paul-Anton Krüger

Mathematische Formeln haben keinen Vorsatz, der entsteht erst durch das Geschäftsmodell

Kommen nach dem Netzwerkdurchsetzungsgesetz, das Hassparolen in sozialen Netzwerken ahndet, nun also Regeln für gerechtere Software? So schnell wird das nicht passieren. Der Bundestag hat Sommerpause. Aus der Opposition kam dann auch prompt der Vorwurf, hier werde nur Wahlkampf betrieben. Das ist ein bisschen ungerecht. Schließlich brachte Maas bereits vor gut anderthalb Jahren die Idee für einen "Algorithmen-TÜV" vor und sagte: "Kein Mensch darf zum Objekt eines Algorithmus werden." Das hörte sich schon damals fast genauso gut an, wie es weltfremd war. Schließlich ereignet sich die Objektwerdung des Nutzers im Kleinen ja schon jedes Mal, wenn er nur eine Google-Suche durchführt.

Trotzdem scheint es so, als hätte das Justizministerium unter Maas Gefallen an der Regulierung des Online-Daseins gefunden. Die Zeiten vom "Internet als rechtsfreiem Raum" sind endgültig vorbei. Fraglich ist aber, ob es den Maas'schen Vorschlag überhaupt noch braucht. Denn in der EU-Datenschutz-Grundverordnung, die ab Mai 2018 in sämtlichen Mitgliedsstaaten anzuwenden ist, finden sich ganz ähnliche Passagen. Sie regelt nicht nur das bereits bekannte "Recht auf Vergessen", sondern behandelt in Artikel 15 auch ein "Auskunftsrecht". Dort heißt es: Wenn eine Person von der automatisierten Entscheidungsfindung eines Algorithmus betroffen ist, muss der Verantwortliche "aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung für die betroffene Person" zur Verfügung stellen.