Künstliche Intelligenz:Computer, erklär mir, was du tust

Geschäftsmann schaut auf Liniendiagramm auf dem Bildschirm eines Roboters PUBLICATIONxINxGERxSUIxAUT

Wissenschaftler fordern, dass die Entscheidungen, die von Maschinen getroffen werden, auch für Menschen nachvollziehbar sein sollen.

(Foto: imago/Ikon Images)
  • Künstliche Intelligenz soll ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können.
  • In der Praxis ist diese Forderung nach Transparenz nicht ganz einfach umzusetzen.
  • Juristen, Programmierer und Daten-Ethiker diskutieren über Lösungen.

Von Johannes Kuhn, Austin

Jeder Informatikstudent, der sich mit Künstlicher Intelligenz (KI) beschäftigt, kennt die Panzer-Anekdote. Zwar ist die Quellenlage nicht eindeutig, dennoch wird sie seit Jahrzehnten immer wieder erzählt. Während des Kalten Krieges führte das US-Militär ein Experiment mit einer Frühform eines neuralen Netzes durch. Es offenbart einige Grundprobleme im Umgang mit KI, die bis heute nicht gelöst sind.

Die Militär-Forscher wollten der KI-Software beibringen, Panzer zu erkennen. Dafür fotografierten sie einen Wald aus der Luft - einmal im Naturzustand, dann mit versteckten Tarnpanzern unter den Bäumen. Sie fütterten das Programm mit den Fotos, und nach kurzer Zeit identifizierte es zielsicher die Aufnahmen, auf denen Militärfahrzeuge zu erahnen waren. Damals wurde das als erstaunlicher Erfolg gefeiert, doch die Begeisterung hielt nur kurz. Als das Pentagon wenig später die Software mit anderen Panzer-Aufnahmen testete, landete die KI nur Zufallstreffer. Ursache des Versagens: Der leere Wald war im Sonnenschein fotografiert worden, die Panzer-Aufnahmen bei bewölktem Himmel.

Was lässt sich daraus heute lernen? Noch immer gilt, dass Entscheidungen von KI-Systemen direkt davon abhängen, mit welchen Daten sie gefüttert werden. Rechenkraft, Komplexität und Größe der Datensätze sind in den vergangenen Jahrzehnten um ein Vielfaches gewachsen. Dementsprechend funktionieren solche Foto-Sortierungen heute (meist) fehlerfrei. Doch was passiert bei komplexeren Aufgaben, die Menschen nicht so leicht beurteilen können wie die Helligkeit eines Fotos? Wer versteht die Entscheidungen eines Programms, das aufgrund unterschiedlichster Faktoren die Rückfallwahrscheinlichkeit eines Straftäters berechnet?

Was bedeutet "Transparenz" für Software-Entscheidungen?

Diese Debatte führen Wissenschaftler und Juristen derzeit mit großer Leidenschaft: Ist es mögich, KI-Systeme zu "Transparenz" verpflichten, also dazu, ihre Urteile für Menschen nachvollziehbar zu machen? Entscheidungen in vielen Lebensbereichen sind bereits automatisiert oder werden in absehbarer Zeit von Computern getroffen werden: Algorithmen kalkulieren Versicherungsprämien, sortieren Bewerbungen oder treffen städteplanerischen Entscheidungen. Deshalb handelt es sich keineswegs nur um theoretische Fragen unter Wissenschaftlern.

"Erklärbarkeit ist die größte Herausforderung, der wir uns im Bereich der KI stellen müssen", verkündete jüngst Andrew Burt, der für die Datenanalyse-Firma Immuta und an der Universität Yale zu diesem Thema forscht. Das Problem wird bereits bei herkömmlichen Algorithmen offensichtlich, die im US-Justizsystem eingesetzt werden. Sie lernen aus bisherigen Fällen und den Vorurteilen der Richter. Dadurch prognostizieren sie Afroamerikanern eine höhere Rückfallwahrscheinlichkeit, als diese in der Realität zeigten (bei Weißen war es umgekehrt).

Die Entscheidungslogik eines neuronalen Netzes, das die KI-Entwicklung so beschleunigt hat, ist um einiges komplexer. Sie entsteht aus einem Zusammenspiel Tausender künstlicher Neuronen, die wiederum in Dutzenden bis Hunderten miteinander verbundenen Ebenen angeordnet sind und sich verschieben - nicht umsonst ist das System den Verschaltungen des menschlichen Gehirns nachempfunden.

Zur SZ-Startseite

Lesen Sie mehr zum Thema