Süddeutsche Zeitung

Künstliche Intelligenz:Wenn Daten in die Irre führen

Lesezeit: 3 min

Kathy Baxter sorgt bei Salesforce dafür, dass Programme unvoreinge­nommen entscheiden.

Von Katharina Kutsche, San Francisco

Wenn wir schon mit Technik interagieren, dann sollten wir hinterher besser dastehen als zuvor. Mit diesem Zitat umschreibt Kathy Baxter ein wichtiges Element ihres Jobs. Die Amerikanerin ist Architektin für ethische Anwendung von künstlicher Intelligenz (KI) bei dem Cloudsoftware-Unternehmen Salesforce. "Der Begriff 'Anwendung' ist wichtig, denn er zeigt, dass wir kontinuierlich lernen und weiterentwickeln", sagt Baxter.

KI gilt als eine der Zukunftstechnologien schlechthin. Ihre Entwicklung wird weltweit mit Milliarden Dollar gefördert, ihr Fortschritt ist politisch und wirtschaftlich ein wesentlicher Standortfaktor. Wenn aber Maschinen lernen sollen, selbständig auf Basis von Daten eine Auswahl oder eine Entscheidung zu treffen, muss man sie trainieren und das möglichst neutral. Sobald derjenige, der die Systeme mit Trainingsdaten füttert, auch seine Vorurteile untermengt, zum Beispiel dass schwarze Menschen anders zu bewerten sind als weiße, sind auch die KI-Programme voreingenommen.

Baxter arbeitet etwa mit dem Forschungsteam von Salesforce, das die Modelle für die firmeneigene KI-Anwendung Einstein entwirft. Wichtige Fragen sind immer: Liegen genug Trainingsdaten vor? Was sind die möglichen Neuordnungen, die wir mit dem Modell gestalten? Und wie entschärfen wir das? Im nächsten Schritt spricht Baxter mit den Produktteams. Gemeinsam überlege man, wie man dem Kunden ein Produkt liefern könne, das dieser verantwortungsvoll nutzen könne, erläutert Baxter.

Salesforce bietet zwei Varianten: ein allgemeines KI-Modell und eines, das vom Unternehmenskunden für die eigenen Zwecke angepasst werden kann. Ein IT-Administrator entscheidet dabei mithilfe einer Zusatzfunktion, welche Felder er nicht nutzen will - sensible Angaben etwa wie Alter, ethnische Herkunft und Geschlecht. In regulierten Branchen wie Krankenversicherungen oder Finanzdienstleistungen dürfe man in den USA keine Entscheidungen auf Basis dieser drei Informationen treffen, so Baxter. Ein Modul namens Einstein Discovery prüfe im Anschluss das gesamte KI-Modell, ob andere Punkte mit den deaktivierten Feldern korrelieren.

Ein Beispiel: Einstein stellt fest, dass die Frage nach der ethnischen Herkunft in Verbindung mit der Postleitzahl ein Problem sein könnte. Das hat in den USA historisch große Brisanz: Eine solche regionale Auswahl schloss Minderheiten von bestimmten Services aus, bot sie verteuert oder in schlechterer Qualität an. Betroffen waren Gebiete, in denen Afroamerikaner und Einwanderer wohnten - ein unrühmliches Vorgehen, das als Redlining (zu Deutsch: eine rote Linie ziehen) bezeichnet wird.

Ein Unternehmen muss sich also genau überlegen, ob es diese Korrelation herstellen will. Ist es ein Ladengeschäft, das gerade eine Marketingkampagne plant und Gutscheine an potenzielle Kunden verschicken möchte, will es die Aktion natürlich auf ein bestimmtes Gebiet begrenzen. Ein Online-Shop dagegen, dem erst einmal egal ist, von wo aus seine Kunden bestellen, kann auf die kombinierte Information von Herkunft und Wohnort verzichten, wenn die Gefahr der Befangenheit besteht.

Firmenkunden zu beraten, heiße, im Zweifelsfall Nein zu sagen. "Wir wissen, dass viele klinische Studien sich fast ausschließlich auf weiße Männer beziehen", sagt Baxter. "Außerdem wissen wir, dass Menschen in den USA, die zum Arzt gehen, sich das auch leisten können. Wir haben also eine Menge Daten von wohlhabenden weißen Leuten und sehr wenig über alle anderen." Für eine Versicherung, die KI nutzen wolle, sei dieser Mangel an Trainingsdaten ein ethisches Problem - und für Salesforce ein Grund zu sagen: "Das können wir nicht umsetzen, zumindest noch nicht."

Baxters Hintergrund ist dabei entscheidend. Sie hat einen Bachelorabschluss in Psychologie und einen Master in Ingenieurswissenschaft und Entwicklungspsychologie. Ethik hatte einen großen Anteil in ihrer Ausbildung, vor allem die Frage, wie man aktiv Menschen schützt, nicht nur Gesetzesverstöße vermeidet. Sie erwähnt auch, dass sie in einer ländlichen Gegend in Georgia aufgewachsen sei: "Die Menschen, mit denen ich die Schule abgeschlossen habe, sind an den Tischen der Tech-Entscheider nicht vertreten."

In ihrem Team sitzen auch Geisteswissenschaftler. Jene haben zwar auch einen Bezug zur Technik, aber seien von deren Möglichkeiten nicht eingeschüchtert. "Du brauchst diese Brückenbauer, Leute, die das Menschliche ins Technische übersetzen."

Das ist auch nötig, weil nicht jeder, der KI einsetzen möchte, wirklich weiß, was sich dahinter verbirgt. Baxters Erfahrung nach glaubt manche Firma, sie brauche KI, dabei liege das Problem ganz woanders. Sie selbst frage daher immer zunächst nach dem Problem, erst dann könne man über eine Lösung nachdenken. Das Gewese um die "Magie" der KI, wie Baxter es ausdrückt, sei nicht hilfreich. Kunden lesen in den Medien, was die neue Technologie angeblich alles kann, und melden sich dann mit der Ansage: "Das wollen wir auch."

Innerhalb von Salesforce sei das Problembewusstsein schon ziemlich hoch. Baxter schult die Entwickler, oft auch auf deren Initiative hin. Für die Zukunft arbeitet die Architektin an unterschiedlichen Definitionen von Fairness. "Was auf mich fair wirkt, kann für dich unfair rüberkommen. Es ist ein subjektives Konzept." Auf künstliche Intelligenz bezogen sei also die Frage, wie man eine Gruppe schützen könne, ohne eine andere zu verlieren oder zu benachteiligen. Schließlich habe Salesforce ganz unterschiedliche Kunden in diversen Branchen.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4726877
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 18.12.2019
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.