Kreditkarten:Warum die Apple Card Ärger verursacht

Kreditkarten: Minimalistische Optik: Glaubt man dem US-Gründer David Hansson, ist bei der Apple Card auch der Kreditrahmen für Frauen reduziert.

Minimalistische Optik: Glaubt man dem US-Gründer David Hansson, ist bei der Apple Card auch der Kreditrahmen für Frauen reduziert.

(Foto: Mark Solarski/Unsplash)
  • Mit der Apple Card steigt das High-Tech-Unternehmen groß in das Kreditkartengeschäft ein.
  • Doch nach welchen Kriterien werden die Limits auf der Karte vergeben? Ein Unternehmer behauptet, seine Frau werde benachteiligt - weil sie eine Frau ist.

Von Hans von der Hagen und Felicitas Wilke

Apple liebt den großen Auftritt. Große Worte sind es auch, mit denen der Konzern seine Kreditkarte Apple Card bewirbt, die in den USA seit August erhältlich ist. Sie stehe unter anderem für Einfachheit und Transparenz - kurzum für alles, was "Millionen Menschen" bereits am Bezahldienst Apple Pay "lieben". Doch nicht alle sehen das so wie Apple. Da ist etwa David Heinemeier Hansson: Am Wochenende beschrieb der ursprünglich aus Dänemark stammende Gründer der US-Softwarefirma Basecamp auf Twitter, wie Apple Card seine Frau benachteilige. Der Dienst sei "verdammt sexistisch", fasste er seine 30-teilige Abfolge von Tweets zusammen, die erstaunlich reich an Kraftausdrücken sind. Obwohl beide Ehepartner steuerlich gemeinsam veranlagt seien und seine Frau sogar kreditwürdiger sei, hätte er einen 20 Mal größeren Kreditrahmen erhalten. "Es kommt noch schlimmer", schreibt Hansson. Selbst wenn seine Frau ihr Konto ausgleiche, könne sie bis zur nächsten Zahlungsperiode nicht mehr mit der Kreditkarte bezahlen. Und das alles nur, weil sie eine Frau sei, vermutet Hansson.

Um den Sachverhalt zu klären, habe seine Gattin daraufhin mit zwei Apple-Mitarbeitern gesprochen, laut Hansson "nette, höfliche Menschen, die ein völlig kaputtes und verwerfliches System" repräsentierten. Sie hätten versichert, dass Apple niemanden absichtlich diskriminieren wolle - vielmehr sei "der Algorithmus" verantwortlich. Tatsächlich prüfen viele Auskunfteien und Banken heute mittels schlauer Software, ob und zu welchen Konditionen jemand einen Kredit erhält. Die Algorithmen können dabei auch auf alte Daten zurückgreifen und aus ihnen lernen: Zum Beispiel könnten sie zu dem Schluss kommen, dass Frauen einen Kredit seltener zurückzahlen als Männer und aus diesem Muster ihre Schlüsse ziehen.

Apple-Mitgründer Steve Wozniak bekam etwa einen zehnmal größeren Kreditrahmen als seine Frau

"Wenn Algorithmen im Einsatz sind, können Fehler passieren", sagt Carla Hustedt, die bei der Bertelsmann Stiftung zur Ethik der Algorithmen forscht. Doch wenn sie passieren, wie mutmaßlich bei Apple Card, dann müssten sich die Unternehmen zwei Fragen stellen: Wie oft wird einer bestimmten Gruppe, etwa Frauen, ein Kredit oder ein großer Kreditrahmen verwehrt, obwohl sie kreditwürdig sind? Und wie geht man als Unternehmen mit solchen Fehlern um? "Die Schuld bei der Maschine zu suchen, ist sicherlich nicht der richtige Weg", kritisiert Hustedt. Vielmehr müsste Apple transparent aufklären, welche Kriterien dazu führen, dass Frauen - systematisch oder in bestimmten Fällen - benachteiligt werden.

Ein Einzelfall scheint das Beispiel von Hansson jedenfalls nicht zu sein. Unter seinem Tweet meldete sich später auch Steve Wozniak zu Wort, der Apple einst mitgegründet hatte und bei der Apple Card nach eigenen Angaben einen zehn Mal größeren Kreditrahmen als seine Ehefrau erhalten habe - und das, obwohl die beiden ein gemeinsames Konto hätten. Die Bank Goldman Sachs, die zusammen mit Apple die Kreditkarte herausgibt, hat inzwischen auf die Vorwürfe reagiert. Die Kreditwürdigkeit werde für jeden Antragsteller individuell geprüft, sodass auch Ehepaare und Mitglieder der selben Familie einen unterschiedlich großen Spielraum erhalten könnten. "Faktoren wie das Geschlecht" hätten auf die Entscheidung aber keinen Einfluss. Ob das stimmt, will jetzt die New Yorker Finanzaufsicht prüfen.

Hierzulande ist eine der wichtigsten Kredit-Auskunfteien die Schufa. "Dass Frauen eine schlechtere Kreditwürdigkeit hätten, deckt sich nicht mit unseren Erfahrungen", sagt ein Sprecher. Mehr noch: In dem derzeit von der Schufa eingesetzten Berechnungsverfahren tauche das Merkmal Geschlecht gar nicht mehr auf. Das zeige schon, dass das Geschlecht "keine übergreifende Relevanz für die Bonität hat" - zumindest bei der Schufa. Die Aussage ist umso bemerkenswerter, da es in Deutschland gesetzlich zulässig ist, das Merkmal Geschlecht für diese Fragestellung zu verwenden. In der Vergangenheit war es übrigens bei der Schufa tendenziell so, dass Frauen eine bessere Bonität gehabt hatten.

Dennoch besteht das Risiko, dass Algorithmen diskriminieren - nicht nur, wenn es um Kredite geht, sondern beispielsweise auch bei Software, die Bewerbungen prüft und aussortiert. Darum müssten die Unternehmen sie regelmäßigen Qualitätstests unterziehen, sagt Expertin Hustedt. "Auch diverse Teams auf der Entwicklerseite können dabei helfen, Diskriminierung frühzeitig zu erkennen." Im aktuellen Fall hat ein privilegierter Unternehmer die mutmaßliche Diskriminierung öffentlich gemacht. "Das ist gut, weil es dem Thema Aufmerksamkeit verschafft", sagt Hustedt. "Aber wir sollten uns darüber im Klaren sein, dass es oft die ohnehin schon Benachteiligten sind, die von Algorithmen zusätzlich benachteiligt werden."

Zur SZ-Startseite

Samstagsessay
:Die neue Sinnsuche

Erste Unternehmenschefs zweifeln am Shareholder-Value-Denken. Das ist gut so. Die Frage ist nur, ob die Kritik an dem seit drei Jahrzehnten geheiligten Prinzip auch wirklich ernst gemeint ist.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: