bedeckt München 27°

Automatisierung:Schätzt der Algorithmus Jobchancen falsch ein, kann das Leben verändern

Es gibt einfache Programme, die wenige Kriterien überprüfen und dann ein klares Ergebnis auswerfen. Es gibt KI, die mit dem vorhandenen Wissen der Welt gefüttert wird und auf dieser Basis vorher definierte Entscheidungen trifft. Und es gibt die modernere KI, die sich ständig verändert, die neuronale Netze und eigene Entscheidungsmuster entwickelt. Es gibt also, ähnlich wie beim autonomen Fahren, auch in der Verwaltung mehrere Automatisierungsgrade.

Wenn ein Algorithmus die Entscheidung treffen muss, ob eine einzelne Person Fortbildungsangebote bekommt oder ein Unternehmen staatliche Fördermittel, dann können Fehler passieren. Welche Auswirkungen diese Fehler haben können, ist sehr unterschiedlich. Geht es nur darum, dass jemand einen Parkausweis für eine bestimmte Straße zugewiesen bekommt, sind die Folgen überschaubar und leicht revidierbar. Schätzt der Algorithmus Jobchancen falsch ein, dann kann das hingegen dramatische und langfristige Auswirkungen auf das Leben eines Menschen haben - weil dieser zum Beispiel nicht angemessen gefördert wird und deshalb lange arbeitslos bleibt. Im Nachhinein ist eine solche Entscheidung schwer zu korrigieren, verpasste Chancen lassen sich kaum ausgleichen. Und wie soll der Betroffene nachweisen, dass der Algorithmus einen Fehler gemacht hat?

Staatliche Institutionen müssen also genau analysieren, welche Fehler auftreten können, welche Folgen das haben kann, ob und wie Fehlentscheidungen revidiert werden können - und ob der Einsatz von Algorithmen überhaupt sinnvoll ist. Sie müssen definieren, wie mit Fehlern umgegangen wird, wohin sich Menschen bei Problemen wenden können, wer juristisch verantwortlich ist und wie hoch der Automatisierungsgrad sein soll, der für bestimmte Entscheidungen vertretbar ist. Und zwar, bevor ein Auftrag für die Software vergeben wird.

Die verwendeten Daten, mit denen eine KI trainiert wird, müssen zudem auf mögliche Verzerrungen ("data bias") geprüft werden. Wenn Frauen historisch aus vielfältigen Gründen weniger arbeiteten und weniger Geld verdienten als Männer, dann darf das nicht als natürliche Gesetzmäßigkeit übernommen werden. Sonst könnte sich ein Zustand verfestigen, in dem Einzelne diskriminiert werden. Für das Vertrauen in staatliche Entscheidungen wäre das nicht gut.

Gerade sozial schwache Menschen sind auf Schutz angewiesen

Um das zu vermeiden, ist Transparenz nötig. Es wäre unrealistisch, von jedem Bürger zu verlangen, sich in die Details komplexer Algorithmen einzuarbeiten. Um Transparenz herzustellen, ist es nicht damit getan, alle Unterlagen ins Internet zu stellen. Transparenz bedeutet, eine unabhängige Kontrolle zu institutionalisieren. Denkbar wären etwa Beiräte für Algorithmenethik, die staatliche Ausschreibungen von Beginn an kritisch begleiten. Solch ein Beirat müsste verschiedene soziale Schichten, Minderheiten, Unternehmen und die Wissenschaft repräsentieren. Algorithmische Entscheidungen und mögliche Fehler haben besonders großen Einfluss auf das Leben sozial schwacher Menschen - Arme, Alte, Kranke, Menschen mit Migrationshintergrund, Alleinerziehende, Menschen also, die mehr als andere auf die Hilfe und den Schutz des Staates angewiesen sind. Nur durch eine angemessene Vertretung dieser Interessensgruppen lässt sich die Gefahr der Diskriminierung abwehren.

Transparenz bedeutet aber auch, Ausschreibungs- und Vergabeprozesse zugänglicher zu machen. Es muss eine Lösung für das Ausschreibungsrecht geben, die den Fokus weniger auf die Kosten als auf die fachgerechte Umsetzung lenkt. Eine Formel, die verschiedene Bürgerrechtsorganisationen in diesem Zusammenhang nutzen, lautet: "öffentliches Geld, öffentliche Software". Ist der Quellcode der Programme öffentlich einsehbar, kann sie jeder überprüfen. Je mehr Menschen sich die Software anschauen können, desto größer ist die Wahrscheinlichkeit, dass Fehler auffallen. Das öffentliche Interesse und das Allgemeinwohl müssen wichtiger sein als das Urheberrecht einzelner Unternehmen, die diese Software entwickeln.

Wichtig ist, dass die Gütekriterien für die Algorithmen ständig überprüft und gegebenenfalls angepasst werden. Erst wenn die Bürger sehen, dass hinter den Maschinen immer noch Menschen stehen, die ansprechbar sind, die eingreifen und Fehler korrigieren können, kann es dem Staat gelingen, Ängste abzubauen. Indem er sich klare Regeln gibt, zeigt er, dass er die Sorgen der Bürger ernst nimmt. Ein demokratischer Staat ist auf das Vertrauen der Bürger in seine Institutionen und seine Entscheidungen angewiesen. Dieses Vertrauen darf er nicht verspielen.

© SZ vom 27.04.2019
SZ-Wirtschaftsgipfel Salon

Künstliche Intelligenz
:"Eines beherrschen deutsche Firmen überhaupt nicht: Propaganda"

KI-Forscher Jürgen Schmidhuber spricht über Maschinen, die das Weltall erobern und erklärt, warum Deutschland sich selbst im Weg steht.

Interview von Ulrich Schäfer

Lesen Sie mehr zum Thema

Zur SZ-Startseite