Digitalisierung:Arbeit aus dem Automaten

Digitalisierung: Das Programm bewertet jeden Jobsuchenden auf Basis verschiedener persönlicher Kenndaten.

Das Programm bewertet jeden Jobsuchenden auf Basis verschiedener persönlicher Kenndaten.

(Foto: Mauritius images)
  • In Österreich sollen zukünftig Algorithmen beeinflussen, wer von der Arbeitsagentur welche Maßnahmen vorgeschlagen bekommt.
  • Das Vorgehen steht in der Kritik, weil es vorhandene Diskriminierungen, etwa gegen Frauen und Alte, in eine technische Lösung überführen könnte.
  • Weibliches Geschlecht und höheres Alter sorgen für eine schlechtere Bewertung durch den Algorithmus.

Von Valentin Dornis

Eine Maschine, die Menschen automatisch bewertet und in Gruppen sortiert, das klingt nach dem Albtraum aller Digitalisierungsgegner. Ein solches Programm soll in Österreich bald alltäglich sein: Der Arbeitsmarktservice (AMS), vergleichbar mit der deutschen Bundesagentur für Arbeit, will künftig einen Algorithmus einsetzen, um die Chancen von Arbeitslosen auf einen neuen Job zu bewerten. Kritiker fürchten nun, die Software könnte Frauen, ältere Menschen und Ausländer diskriminieren.

Es geht dabei um grundlegende Fragen der Digitalisierung, die sich auch in Deutschland stellen: Wie viel Verantwortung will die Gesellschaft an Computer abgeben? Und welche Rolle spielt das Schicksal des Einzelnen, wenn der Algorithmus nur nach Kennzahlen entscheidet?

Frauen und Alte haben schlechte Chancen

Das Programm in Österreich arbeitet auf Basis verschiedener persönlicher Kenndaten, die kombiniert werden. In die Berechnung fließen beispielsweise die Ausbildung und das bisherige Arbeitsleben ein. Aber auch Alter, Geschlecht und Staatsangehörigkeit spielen eine Rolle. Sucht nun jemand eine Arbeit, berechnet der Algorithmus seinen sogenannten "Integrations-Chancenwert", eine Prozentzahl. Die soll Auskunft darüber geben, wie gut die Aussichten dieses Menschen auf eine neue Stelle sind. Anhand dieses Werts teilt das Programm die Menschen dann in eine von drei Gruppen ein: Wer 66 Prozent oder mehr erzielt, landet in der "Hoch"-Gruppe mit guten Chancen, mit einem Wert unter 25 Prozent geht es in die "Niedrig"-Gruppe. Alle anderen werden in die "Mittel"-Gruppe einsortiert.

In einem Dokument, das der AMS zu dem Programm veröffentlichte, ist nachzulesen, welche Eigenschaften der Algorithmus als negativ oder positiv wertet. Das weibliche Geschlecht und ein höheres Alter haben zum Beispiel negative Auswirkungen auf den Chancenwert. Daran entzündet sich nun die Kritik.

Der AMS will mit dem Programm vor allem seine Effizienz steigern. Ein Schritt, der in Deutschland noch nicht getan wurde. "Solche Algorithmen nutzen wir nicht, und das ist derzeit auch nicht geplant", sagt ein Sprecher der Bundesagentur für Arbeit. Bei der Beratung von Arbeitssuchenden werde nur eine Art Jobplattform genutzt: Das Programm vergleicht Stellenangebote und Bewerberprofile und schlägt dann passende Jobs vor. Dabei seien vor allem Qualifikationen und Erfahrung wichtig, das Geschlecht oder die Herkunft spielten dagegen keine Rolle, betont der Sprecher.

Der AMS wehrt sich gegen Kritik

Werden Menschen nicht diskriminiert, wenn solche Merkmale bei der Suche nach Arbeit als Nachteil festgelegt werden? Johannes Kopf, Vorstand des AMS, wehrt sich gegen die Kritik. Die Chancenwert-Berechnung zeige nur, dass es auf dem Arbeitsmarkt eine Diskriminierung bestimmter Gruppen gebe. Ignoriere man diese Tatsache, könnten zum Beispiel Frauen nicht korrekt gefördert werden. "Unsere Aufgabe ist es, gegen Diskriminierung am Arbeitsmarkt vorzugehen", sagt Kopf. Deshalb gebe es klare Ziele für die Frauenförderung: Der AMS sei verpflichtet, 50 Prozent seines Geldes für Fördermaßnahmen für Frauen auszugeben, obwohl 2017 nur 43,3 Prozent der Arbeitssuchenden weiblich gewesen seien. Für andere Gruppen, etwa Langzeitarbeitslose, gebe es ebenfalls spezielle Programme, die sie auf einen Job vorbereiten sollen. Es sei deshalb nötig, dass der Algorithmus realistische Chancenwerte errechne: "Eine Abbildung der Realität kann nicht diskriminierend sein."

2020 soll das System verbindlicher Teil der Beratung werden

Das sieht Carla Hustedt anders. Sie leitet das Projekt Algorithmen-Ethik der Bertelsmann-Stiftung und sagt, es könne sehr wohl ein Problem sein, aus vorhandenen Datensätzen auf bestimmte Zusammenhänge zu schließen, "weil man damit womöglich bestehende Vorurteile reproduziert". Ein Beispiel dafür ist ein Programm, das der Online-Händler Amazon für Bewerbungen einsetzen wollte und nun abschaffte. Es benachteiligte systematisch Frauen, weil aus den teils zehn Jahre alten Daten, die als Basis für die Berechnungen dienten, hervorging, dass viele erfolgreiche Bewerber Männer waren. Ein typisches Phänomen in der Tech-Branche, das nichts über Qualifikationen aussagt. "Das muss einem bewusst sein und mit entsprechenden Maßnahmen verhindert werden", sagt Hustedt.

Johannes Kopf glaubt, dass der AMS auf solche Probleme gut vorbereitet ist. Ab dem 15. November sollen seine Mitarbeiter das Programm nutzen können, sie sehen dann den Chancenwert und welche Faktoren ihn besonders beeinflusst haben. Über beides können sie mit den Arbeitssuchenden sprechen. Erst nach gut einem Jahr Einführungsphase, also ab 2020, soll der Chancenwert dann als einer von mehreren Faktoren verbindlicher Teil der Beratung werden. Die Entscheidung, welche Maßnahmen sinnvoll sind, werde aber auch in Zukunft stets der Berater treffen, sagt der AMS-Vorstand.

Effizienz ist das Hauptziel der Technologie

Das führt zum zweiten Aspekt, den einige in Österreich kritisieren: Im realen Betrieb ab 2020 sollen in der "Niedrig"-Gruppe weniger komplexe, intensive Fachausbildungen angeboten werden. Wer geringere Chancen hat, kriegt erst einmal auch weniger geboten. Alles im Sinne der Effizienz, dem eigentlichen Hauptziel der Software.

Kopf begründet das damit, dass diese Weiterbildungen teuer seien und häufig abgebrochen würden. Das Geld könne also sinnvoller eingesetzt werden. Gerade in der "Niedrig"-Gruppe seien Basisförderungen ähnlich erfolgreich. Und weil diese günstiger seien, könnten damit letztlich mehr Menschen mit dem vorhandenen Geld unterstützt werden, auch mit alternativen Angeboten. "Der Algorithmus kann helfen, Schwerpunkte zu setzen und gewisse Personen künftig vermehrt in externen Beratungseinrichtungen zu betreuen", sagt Kopf.

Die Technik soll eine Frage beantworten, die eigentlich politisch ist

Das Problem sei nicht die Software an sich, sagt Algorithmen-Ethikerin Hustedt. Die Kritik in Österreich zeige viel mehr ein grundsätzliches Missverständnis in der Digitalisierung: "Hier wird dem Algorithmus die Schuld in die Schuhe geschoben. Eigentlich geht es aber um die Frage, welche Menschen in einem Solidarsystem die größte Unterstützung erhalten sollen." Das müsse politisch geklärt werden. Stattdessen würden solche Debatten "auf einen Algorithmus projiziert, der dann entweder Verheißung oder Horror ist". Dabei seien die Zwischentöne wichtig, um über die Auswirkungen diskutieren zu können.

AMS-Vorstand Kopf verspricht, auf diese Zwischentöne achten zu wollen. Der Einsatz der Software soll regelmäßig überprüft und angepasst werden, und zwar auf mehreren Ebenen. Dazu zählen die Trefferquote und der Erfolg der eingesetzten Maßnahmen. Aber auch, wie die Menschen in der Beratung mit dem Algorithmus umgehen: "Wir werden laufend überprüfen, ob unsere Berater dem Chancenwert in der Praxis eine zu hohe Bedeutung beimessen."

Zur SZ-Startseite

KI-Debatte
:Keine Panik, es ist nur künstliche Intelligenz

Wenige Technologien machen Menschen so viel Angst und Hoffnung wie KI. Dabei kann sie bisher nicht einmal ein belegtes Brot von einem Vulkanausbruch unterscheiden. Vier Fachleute klären Missverständnisse auf.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: