Süddeutsche Zeitung

Kreditkarten:Warum die Apple Card Ärger verursacht

Lesezeit: 3 min

Von Hans von der Hagen und Felicitas Wilke, München

Apple liebt den großen Auftritt. Große Worte sind es auch, mit denen der Konzern seine Kreditkarte Apple Card bewirbt, die in den USA seit August erhältlich ist. Sie stehe unter anderem für Einfachheit und Transparenz - kurzum für alles, was "Millionen Menschen" bereits am Bezahldienst Apple Pay "lieben". Doch nicht alle sehen das so wie Apple. Da ist etwa David Heinemeier Hansson: Am Wochenende beschrieb der ursprünglich aus Dänemark stammende Gründer der US-Softwarefirma Basecamp auf Twitter, wie Apple Card seine Frau benachteilige. Der Dienst sei "verdammt sexistisch", fasste er seine 30-teilige Abfolge von Tweets zusammen, die erstaunlich reich an Kraftausdrücken sind. Obwohl beide Ehepartner steuerlich gemeinsam veranlagt seien und seine Frau sogar kreditwürdiger sei, hätte er einen 20 Mal größeren Kreditrahmen erhalten. "Es kommt noch schlimmer", schreibt Hansson. Selbst wenn seine Frau ihr Konto ausgleiche, könne sie bis zur nächsten Zahlungsperiode nicht mehr mit der Kreditkarte bezahlen. Und das alles nur, weil sie eine Frau sei, vermutet Hansson.

Um den Sachverhalt zu klären, habe seine Gattin daraufhin mit zwei Apple-Mitarbeitern gesprochen, laut Hansson "nette, höfliche Menschen, die ein völlig kaputtes und verwerfliches System" repräsentierten. Sie hätten versichert, dass Apple niemanden absichtlich diskriminieren wolle - vielmehr sei "der Algorithmus" verantwortlich. Tatsächlich prüfen viele Auskunfteien und Banken heute mittels schlauer Software, ob und zu welchen Konditionen jemand einen Kredit erhält. Die Algorithmen können dabei auch auf alte Daten zurückgreifen und aus ihnen lernen: Zum Beispiel könnten sie zu dem Schluss kommen, dass Frauen einen Kredit seltener zurückzahlen als Männer und aus diesem Muster ihre Schlüsse ziehen.

Apple-Mitgründer Steve Wozniak bekam etwa einen zehnmal größeren Kreditrahmen als seine Frau

"Wenn Algorithmen im Einsatz sind, können Fehler passieren", sagt Carla Hustedt, die bei der Bertelsmann Stiftung zur Ethik der Algorithmen forscht. Doch wenn sie passieren, wie mutmaßlich bei Apple Card, dann müssten sich die Unternehmen zwei Fragen stellen: Wie oft wird einer bestimmten Gruppe, etwa Frauen, ein Kredit oder ein großer Kreditrahmen verwehrt, obwohl sie kreditwürdig sind? Und wie geht man als Unternehmen mit solchen Fehlern um? "Die Schuld bei der Maschine zu suchen, ist sicherlich nicht der richtige Weg", kritisiert Hustedt. Vielmehr müsste Apple transparent aufklären, welche Kriterien dazu führen, dass Frauen - systematisch oder in bestimmten Fällen - benachteiligt werden.

Ein Einzelfall scheint das Beispiel von Hansson jedenfalls nicht zu sein. Unter seinem Tweet meldete sich später auch Steve Wozniak zu Wort, der Apple einst mitgegründet hatte und bei der Apple Card nach eigenen Angaben einen zehn Mal größeren Kreditrahmen als seine Ehefrau erhalten habe - und das, obwohl die beiden ein gemeinsames Konto hätten. Die Bank Goldman Sachs, die zusammen mit Apple die Kreditkarte herausgibt, hat inzwischen auf die Vorwürfe reagiert. Die Kreditwürdigkeit werde für jeden Antragsteller individuell geprüft, sodass auch Ehepaare und Mitglieder der selben Familie einen unterschiedlich großen Spielraum erhalten könnten. "Faktoren wie das Geschlecht" hätten auf die Entscheidung aber keinen Einfluss. Ob das stimmt, will jetzt die New Yorker Finanzaufsicht prüfen.

Hierzulande ist eine der wichtigsten Kredit-Auskunfteien die Schufa. "Dass Frauen eine schlechtere Kreditwürdigkeit hätten, deckt sich nicht mit unseren Erfahrungen", sagt ein Sprecher. Mehr noch: In dem derzeit von der Schufa eingesetzten Berechnungsverfahren tauche das Merkmal Geschlecht gar nicht mehr auf. Das zeige schon, dass das Geschlecht "keine übergreifende Relevanz für die Bonität hat" - zumindest bei der Schufa. Die Aussage ist umso bemerkenswerter, da es in Deutschland gesetzlich zulässig ist, das Merkmal Geschlecht für diese Fragestellung zu verwenden. In der Vergangenheit war es übrigens bei der Schufa tendenziell so, dass Frauen eine bessere Bonität gehabt hatten.

Dennoch besteht das Risiko, dass Algorithmen diskriminieren - nicht nur, wenn es um Kredite geht, sondern beispielsweise auch bei Software, die Bewerbungen prüft und aussortiert. Darum müssten die Unternehmen sie regelmäßigen Qualitätstests unterziehen, sagt Expertin Hustedt. "Auch diverse Teams auf der Entwicklerseite können dabei helfen, Diskriminierung frühzeitig zu erkennen." Im aktuellen Fall hat ein privilegierter Unternehmer die mutmaßliche Diskriminierung öffentlich gemacht. "Das ist gut, weil es dem Thema Aufmerksamkeit verschafft", sagt Hustedt. "Aber wir sollten uns darüber im Klaren sein, dass es oft die ohnehin schon Benachteiligten sind, die von Algorithmen zusätzlich benachteiligt werden."

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4677014
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 12.11.2019
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.