Künstliche Intelligenz:Warum musste Google-Expertin Timnit Gebru gehen?

Timnit Gebru, TechCrunch Disrupt San Francisco 2018

Timnit Gebru liegt im Clinch mit ihrem alten Arbeitgeber Google. (Archivbild)

(Foto: Kimberly White/AFP)

Die Computeringenieurin war bei Google für die ethischen Fragen künstlicher Intelligenz zuständig. Bis sie rausflog - was aus ihrer Sicht ebenjene ethischen Fragen aufwirft.

Von Michael Moorstedt

Streits zwischen Angestellten und Arbeitgebern sind oft hässlich. Die eine Seite behauptet dies, die andere das Gegenteil. Es hagelt üble Nachrede, es geht um verletzte Eitelkeiten und irgendwann nur noch bedingt um die Frage, wer wirklich im Recht ist.

Doch der Streit zwischen Timnit Gebru und ihrem Arbeitgeber Google hat wohl größere Dimensionen. Gebru war bis Anfang Dezember Leiterin der konzerneigenen Arbeitsgruppe zu den ethischen Implikationen von künstlicher Intelligenz. Dann war sie es von heute auf morgen nicht mehr, und nun stellt sich die Frage nach dem Warum. Gebru sagt, sie wurde rausgeschmissen. Der Konzern kontert, die Qualität einer Studie, an der Gebru gerade arbeitete, entspreche nicht den eigenen Standards. Gebru behauptet, plötzlich keinen Zugriff mehr auf ihr E-Mail-Postfach gehabt zu haben. Ihr Vorgesetzter klagt, sie hätte ein Ultimatum zur Veröffentlichung der Studie gesetzt und gekündigt, nachdem das Unternehmen nicht bereit war, darauf einzugehen.

Der Streit ist heikel für den Konzern. Schon formiert sich unter den Google-Mitarbeitern eine Solidaritätsbewegung für die geschasste Kollegin. Schließlich ist Gebru in ihrer Disziplin ein Star. Die Informatikerin setzt sich seit Jahren für mehr Diversität in der weißen und männlichen KI-Welt ein.

KI sei gut im Nachplappern, nicht im tatsächlichen Verstehen, schreibt Gebru

Obwohl das offizielle Firmenmotto "Don't be evil" schon vor geraumer Zeit in das wesentlich unverbindlichere "Do the right thing" umformuliert wurde, hat ein Großteil der Belegschaft noch immer hohe moralische Erwartungen an ihren Arbeitgeber. Im Zuge der "Me Too"-Bewegung gingen Zehntausende Angestellte auf die Straße. In der Führungsebene weiß man also, was sich nun zusammenbrauen könnte. Vor einigen Tagen ließ Google-CEO Sundar Pichai ausrichten, er werde persönlich zu den Vorgängen ermitteln.

Unterdessen sind Auszüge der Studie an die Öffentlichkeit gelangt. Schon im Titel spricht Gebru von KIs als "stochastischen Papageien". KI-Modelle, heißt das, werden immer besser im Nachplappern und der Imitation von Sprache, ihre Leistungen hätten aber nichts mit tatsächlichem Verständnis zu tun.

Die Studie bestätigt Vermutungen, die in der KI-Community schon länger existieren: KI führe zu sozialer Ungerechtigkeit und ist obszön umweltschädlich - ein einmaliger Trainingsvorgang eines gängigen Modells stößt so viel CO₂ aus wie fünf Autos über ihre gesamte Lebensdauer hinweg. Außerdem würden die Programme die Vorurteile und Diskriminierungsmuster unserer Gesellschaft replizieren.

Nach der Lektüre ist klar, dass die Ergebnisse für einen Konzern wie Google ziemlich unangenehm sind. Der Vorgang bestätigt auch den Verdacht, dass die in den letzten Jahren immer populärere KI-Ethik für die Tech-Branche ein bloßes moralisches Feigenblatt ist. Dessen man sich bei Bedarf gerne wieder entledigt.

Zur SZ-Startseite
biometrie gesichtserkennung nist covid masken

Gesichtserkennung
:Die Technik lernt, mit Masken umzugehen

Als alle plötzlich Mund-Nasen-Schutz trugen, scheiterten die Algorithmen an den halb verdeckten Gesichtern. Doch die Branche schaut jetzt stärker auf die Augen.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: