Süddeutsche Zeitung

Künstliche Intelligenz:Wenn der Roboter das Einstellungsgespräch führt

Lesezeit: 2 min

In vielen Firmen müssen Bewerber zunächst oft nicht mehr Menschen überzeugen, sondern Maschinen.

Von Benedikt Peters

Das heutige Vorstellungsgespräch führt die Bewerberin nicht mit einer Chefin oder einem Mitarbeiter aus der Personalabteilung. Sie führt es mit einem Computer. Die Maschinenstimme erkundigt sich nach dem Lebenslauf, nach den beruflichen Erfolgen, nach einem schönen, persönlichen Erlebnis - und wünscht dann noch einen guten Tag und legt auf.

Was für manche wirkt wie die Szene aus einem Science-Fiction-Film, ist in vielen Firmen bereits Realität, auch in Deutschland. IT-Konzerne, Automobilfirmen, Versicherer, Sportartikelhersteller: Sie alle nutzen automatisierte Software, um Bewerbungen zu filtern. Mal durchforsten Algorithmen die Lebensläufe, mal führen Chatbots die Vorauswahlgespräche. Sie untersuchen die Stimme und die Wortwahl der Bewerber und ziehen daraus Rückschlüsse auf deren Eignung - wer wie belastbar ist, wie teamfähig, wie neugierig - und treffen dann eine Vorauswahl. Erst die endgültige Entscheidung, wer den Job bekommt, liegt dann wieder beim Chef oder der Chefin.

Die künstliche Intelligenz ist längst im Arbeitsleben angekommen, und manche finden das gut. Sie schwärmen davon, dass Maschinen künftig den Menschen die Arbeit abnehmen könnten - in der Produktion und eben auch bei der Personalauswahl. In automatisierten Bewerbungsprozessen, so glauben die einen, läge eine große Chance für Gerechtigkeit. Anders als Menschen hätten die Software keine Vorurteile, sie entschieden nur nach Eignung und nicht danach, welche Nase ihnen passt.

Doch die Zweifel an dieser schönen neuen Arbeitswelt mehren sich, und genährt werden sie auch von einem neuen Gutachten des Hugo-Sinzheimer-Instituts der gewerkschaftsnahen Hans-Böckler-Stiftung, das der Süddeutschen Zeitung vorliegt. Der Frankfurter Universitätsprofessor Bernd Waas untersucht darin, ob das Arbeitsrecht für den Vormarsch der künstlichen Intelligenz gewappnet ist - und gerade bei der Personalauswahl kommt er zu einem deutlichen Urteil. "Die Gefahr von Diskriminierungen", schreibt er, "ist geradezu mit Händen zu greifen."

Benachteiligungen könnten im Algorithmus versteckt sein

Waas befürchtet, dass Bewerber über Umwege benachteiligt werden könnten, er spricht von "mittelbarer Diskriminierung". Ein vereinfachtes Beispiel: Eine Software könnte lernen, dass in einem Unternehmen überdurchschnittlich viele Menschen beschäftigt sind, die angeben, in ihrer Freizeit gerne Fußball anzuschauen. Sie könnte daraufhin das - scheinbar neutrale - Kriterium vergeben, dass Bewerber ein vergleichbares Hobby haben sollten, damit sie besonders gut ins Team passen. De facto wäre das eine Diskriminierung nach Geschlechtern, weil es deutlich weniger weibliche Fußballfans gibt als männliche.

Das Allgemeine Gleichbehandlungsgesetz untersagt solche Benachteiligungen. Waas befürchtet allerdings, dass sie zukünftig nicht mehr auffallen könnten, weil sie irgendwo inmitten komplizierter Algorithmen versteckt liegen. Dass Arbeitnehmer gegen Diskriminierungen klagen könnten, reiche nicht, schreibt er. Stattdessen müsse es bessere Präventionsmöglichkeiten geben. Eine Idee: Firmen sollten die Funktionsweisen ihrer Auswahl-Software offenlegen und die Algorithmen durch staatliche Stellen prüfen lassen. Die schöne neue Arbeitswelt, sie scheint ohne Kontrolle nicht auszukommen.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.5702883
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.