Doch selbst neuronale Netze sind nur auf eine Aufgabe trainiert und spezialisiert. Wenn KI einen versteckten Panzer im Wald identifiziert, hat sie deshalb noch keine Antworten auf für Menschen selbstverständliche Fragen: Was macht ein Panzer? Lässt sich ein Panzer essen? Welche Tiere leben normalerweise im Wald?
Einige Wissenschaftler fordern Einblick in den Quellcode oder die Trainingsdatensätze. Allerding stammen die meisten Anwendungen bereits jetzt aus der Privatwirtschaft, und die Forschung verlagert sich immer mehr dorthin. Die Unternehmen lehnen es häufig unter Hinweis auf Geschäftsgeheimnisse ab, ihre Algorithmung offenzulegen. Die Intransparenz wird also nicht nur technisch, sondern mit kommerziellen Interessen begründet. Jura-Professor Frank Pasquale fordert, dass zumindest Expertengremien Zugang zu solchen sensiblen Informationen erhalten sollten.
Die Idee, "Deep Learning"-Systeme ihre Entscheidungen begründen zu lassen, gleiche "irgendwann dem Versuch, einem Hund Shakespeare zu erklären", spottete vor anderthalb Jahren noch der Roboteringenieur Hod Libson. Inzwischen aber versuchen Forscher in Berkeley und anderen Universitäten, solche Erklärsysteme zu entwickeln.
Das Problem der logischen Erzählung
Dabei stecken sie noch am Anfang. Eine Software mag für Menschen verständlich begründen können, wie sie auf einem Foto einen Vogel identifiziert hat. Doch je komplexer der Fall ist, je mehr Faktoren eine Rolle spielen und je häufiger die KI die komplette Entscheidungslogik ändert, weil sie neue Muster erkannt hat, desto schwieriger wird eine Erklärung, die nicht nur technische Experten verstehen.
Eine pragmatischere Lösung schlägt die Juristin und Daten-Ethikerin Sandra Wachter vom Oxford Internet Institut gemeinsam mit ihren Kollegen Brent Mittelstadt und Chris Russell vor: Statt die KI die Vorgänge im Maschinenraum erklären zu lassen, soll sie erklären, was für eine andere Entscheidung notwendig wäre. Wenn eine Software einen Kredit ablehne, könnte sie doch den Bankkunden aufklären, woran es lag; zum Beispiel daran, dass er nur 25 000 Euro im Jahr verdient, aber bei 35 000 Euro eine Genehmigung erhalten hätte.
Dass solche Scoring-Erklärungen immer wichtiger werden, zeigt das Projekt der Organisation Algorithmwatch, das die Berechnung des umstrittenen und intransparenten Schufa-Scores auf systemische Fehler überprüfen möchte und dafür Datensätze von Freiwilligen sammeln muss.
Vorsicht, Empathie-Ausschaltung
Im Mai tritt die Europäische Datenschutzrichtlinie in Kraft. Sie verankert ein Recht auf Erklärung algorithmischer Entscheidungen. Es gilt allerdings nur, wenn ein Kunde geschädigt wurde und die Entscheidung komplett automatisiert getroffen wurde, also gänzlich ohne menschliches Zutun. Dieser Passus dürfte einerseits problematische Vollautomatisierungen bremsen; andererseits kann der menschliche Faktor schon darin liegen, eine Entscheidung einfach nochmal mit einem "Okay" abzusegnen.
Dieses Szenario kann oft in "Empathie-Ausschaltung" münden, wie Informatik-Ethiker befürchten: Wenn sich Institutionen und ihre Mitarbeiter auf die Entscheidung der Software verlassen, können sie eigene ethische Zweifel verdrängen und sich auf die Intelligenz des Systems berufen. Die aktuelle Diskussion spiegelt deshalb auch den Versuch wieder, selbstlernender Software eine Struktur für menschenfreundliche Entscheidungen zu geben.