Netzkolumne:Mein Chef, der Roboter

Roboter werden demnächst einen großen Teil unserer Arbeitsplätze übernehmen, fürchten viele zu Recht. Doch schon jetzt entscheidet in immer mehr Unternehmen Software darüber, wer eingestellt wird und wem gekündigt wird.

Von Michael Moorstedt

Eine der gängigen Zukunftsängste ist jene, wonach man bald von Maschinen aus seinem Job verdrängt werden wird. Mit künstlicher Intelligenz ausgestattete Computer und smarte Roboter bedrohen nach Einschätzung von Marktforschungsunternehmen beinahe die Hälfte aller Arbeitsplätze. Doch bevor es soweit ist, droht eine zweite Gefahr. Rechner werden darüber entscheiden, wer überhaupt noch einen Job behält.

In der letzten Woche veröffentlichte das Techniknachrichtenportal The Verge Dokumente, die belegen, wie Amazon die Arbeiter in seinen Logistik-Zentren steuert. Das System, so heißt es dort, "überprüft die Produktivität jedes Angestellten" und "generiert automatisch und ohne Einfluss von Vorgesetzten Abmahnungen und Kündigungen". Wer in den Lagerhallen des Konzerns zu lange braucht, um die Strichcodes zu scannen, erhält erst eine Verwarnung und dann den Rausschmiss. In einem einzigen Amazon-Lager wurden so in einem Jahr als 300 Leute entlassen.

Dass diese Art der Behandlung nicht nur schlecht bezahlten Logistik-Knechten widerfährt, beweist die Geschichte des Software-Entwicklers Ibrahim Diallo. Als er eines Tages zur Arbeit gehen wollte, so schildert er es auf seinem Blog, funktionierte die Schlüsselkarte auf einmal nicht mehr. Auch der Zugriff auf die IT-Systeme wurde ihm verweigert. Eine Software hatte seinen Arbeitsvertrag annulliert.

Bei Amazon bewerten Menschen Produkte. Bei Pymetrics bewertet die Software Menschen

Doch weil kein Mensch ihm sagen konnte, was vor sich ging, erschien Diallo weiter zur Arbeit. Bis zwei grimmige Sicherheitsmitarbeiter ihn am dritten Tag aus dem Gebäude eskortierten. Der Mensch als Erfüllungsgehilfe der Maschine: Weder seine direkte Vorgesetzte noch die Abteilungsleiterin konnten Einfluss auf die Entscheidung nehmen. Es dauerte Wochen, bis man herausfand, was passiert war.

Software wird aber nicht nur eingesetzt, um Menschen zu feuern, sondern auch, um sie einzustellen. In den USA gibt es bereits mehrere Firmen, die versprechen, dass die von ihnen entwickelten Programme unter Garantie die besten Kandidaten aus der Flut eingehender Bewerbungen filtern können. Unternehmen mit Namen wie VCV, Hirevue oder Pymetrics zählen Großkonzerne wie Intel oder Unilever zu ihren Kunden.

Geht es nach ihrem Willen, sind die Zeiten, in denen man in einem Bewerbungsgespräch vor einem strengen aber gerechten Personaler sitzt, bald vorbei. In den ersten Runden müsste man demnach erst mal eine Software von sich und seinen Fähigkeiten überzeugen. Nach Analyse von Biografie, Mimik und Sprachmuster meint man hier, die Persönlichkeit eines Menschen bestens einschätzen zu können. Pymetrics etwa verspricht eine "vorurteilsfreie Einschätzung, auf welchen Positionen welche Menschen am besten eingesetzt" werden können.

Genau die Sache mit den Vorurteilen scheint jedoch gar nicht so trivial zu sein (siehe dazu auch der Text "Unfair" auf Seite 9). Im vergangenen Herbst etwa wurde bekannt, dass wiederum Amazon mehrere Jahre mit einem Programm arbeitete, in dem eine KI die Tauglichkeit von neuen Bewerbern einschätzen sollte. Weil die Verdinglichung des Menschen im Kapitalismus ja anscheinend noch nicht weit genug geht, bekamen die Bewerber je nach Eignung Wertungen von einem bis fünf Sterne verliehen - ganz so, wie man es auch von Produktbewertungen kennt. Das Experiment wurde jedoch gestoppt, als herauskam, dass die Software Lebensläufe, in denen die Wörtchen Frau oder Frauen auftauchten, automatisch herabgestuft hatte.

Was war passiert? Das selbstlernende System nahm sich einfach die bereits bei Amazon Beschäftigten zum Vorbild. Und das waren, so wie im Silicon Valley oft üblich, vor allem Männer. Der Algorithmus kam also zu dem Schluss, dass Bewerbungen von Frauen schlechter zu bewerten seien. Der Fall ist seitdem ein Paradebeispiel für einen sogenannten algorithmic bias, also einer durch einen Algorithmus hervorgerufene oder verstärkte Ungerechtigkeit. Die Maschine ist nicht per se fair. Eine KI ist immer nur so neutral wie die Wirklichkeit, in der sie erschaffen wurde.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: