Künstliche Intelligenz und Recht:Die Entmachtung des Menschen durch die Maschine?

Lesezeit: 5 min

Künstliche Intelligenz und Recht: Eine künstliche Intelligenz lässt sich so wenig anfassen wie der menschliche Geist, sie entsteht irgendwo zwischen Schaltkreisen und Programm-Code. Im Bild das KI-Servicezentrum Berlin-Brandenburg.

Eine künstliche Intelligenz lässt sich so wenig anfassen wie der menschliche Geist, sie entsteht irgendwo zwischen Schaltkreisen und Programm-Code. Im Bild das KI-Servicezentrum Berlin-Brandenburg.

(Foto: www.kayherschelmann.de/obs)

Auf einer Tagung gingen Juristen der Frage nach, wie KI die Rechtsprechung beeinflussen könnte. Ein zentrales Problem: Der Mensch versteht nicht, wie der Computer zu Entscheidungen kommt.

Von Wolfgang Janisch

Wer darüber nachdenkt, was künstliche Intelligenz (KI) für das Konzept menschlicher Verantwortung bedeutet, der stößt irgendwann auf HAL. Der Computer aus Stanley Kubricks "2001: Odyssee im Weltraum" übernahm kurzerhand die Steuerung des Raumschiffs und ließ den menschlichen Protagonisten wissen: "Diese Mission ist zu wichtig für mich, um sie dir zu überlassen."

Martin Eifert, Rechtsprofessor an der Berliner Humboldt-Universität, zitierte HAL kürzlich auf einer Tagung der Internationalen Juristenkommission in Göttingen zum Thema KI und Recht. Freilich nur, um deutlich zu machen, dass die Entmachtung des Menschen durch KI keineswegs so plump vor sich geht, wie sich das Kubricks 1968 vorgestellt hat. Falls man überhaupt von einer Entmachtung sprechen kann. Aber klar ist schon: Der hochentwickelte selbstlernende Algorithmus, ob er nun HAL oder sonst wie heißt, kann ein derart potenter Helfer sein, dass er gern auch mal die Führung übernimmt.

Solche Führungsansprüche der Maschinen, subtil oder direkt, werfen juristische Fragen auf, die oft mit ein und demselben Grundproblem zu tun haben: Der Mensch denkt in Kausalitäten und versucht, Zusammenhänge zu erfassen. "Als Menschen haben wir Intuition und Erfahrung, außerdem Recht und Moral", sagte Simon Burton vom Fraunhofer-Institut für Kognitive Systeme. Das versuche man, auf die Systeme zu übertragen.

KI trifft Entscheidungen, aber verschweigt die Gründe dafür

Bisher mit mäßigem Erfolg: KI begreift nichts, sondern erkennt in großen Datenmengen Muster und stellt Korrelationen her. Sie betreibt also eine Art Statistik für Fortgeschrittene. Was eine Tagungsteilnehmerin zu der Frage brachte: Wenn die KI nun herausfände, dass 96 Prozent der Menschen mit pinken Socken ihre Kredite nicht zurückzahlten - was fängt die Bank damit an? Kein Geld mehr für Pinke-Socken-Träger? Obwohl überhaupt kein Zusammenhang erkennbar ist zwischen Sockenfarbe und Kreditwürdigkeit?

Damit ist man sofort bei der nächsten Schwierigkeit. "Anders als bei klassischer Software kann man nicht hineinschauen, ob die KI richtig gelernt hat", sagte Burton. Die KI erklärt und protokolliert KI nicht, warum sie zu welchem Ergebnis kommt. "Weil die KI ein selbstlernendes System ist, können bei ihren Entscheidungen auch die maßgeblichen Faktoren und ihre jeweilige Gewichtung im Einzelfall normalerweise nicht ausgewiesen werden", erläuterte Eifert. KI trifft also Entscheidungen, aber verschweigt die Gründe dafür. Sie ist eine "black box", wie sie dunkler nicht sein könnte.

Juristen bringt das schier um den Verstand. Denn das gesamte Konzept der rechtlichen Überprüfbarkeit von Entscheidungen - vom Widerspruch gegen Behördenbescheide bis zur Revision vor Gericht - setzt bei der Begründung an. Mit einem schweigenden Computer wird es daher schwierig mit dem Rechtsschutz. Eifert erläutert dies am Beispiel einer Waffenbesitzerin, die von der Behörde als unzuverlässig eingestuft wird. Denkbar wäre, dass dies der Computer übernimmt, indem er Unterlagen und Register durchforstet. Aber beim Bescheid bliebe im Dunkeln, ob dabei frühere Rechtsverstöße im Umgang mit Waffen eine Rolle gespielt haben oder schlicht der Umstand, dass sie mal bei der Steuererklärung geschlampt hat. Oder pinke Socken trägt. Wer einen ablehnenden Bescheid angreifen wollte, hätte nichts in der Hand.

Die naheliegende Antwort darauf wäre, den HAL-Satz umzukehren. Solche Dinge sind einfach zu wichtig, um sie dem Rechner zu überlassen; entscheiden muss am Ende der Mensch. Human in the loop heißt das im Fachjargon, und auch der KI-Verordnungsentwurf der EU-Kommission sieht eine menschliche Aufsicht für Hochrisiko-KI vor. Doch wie schwierig das ist mit der menschlichen Aufsicht, zeigte schon der Unfall mit einem selbstfahrenden Taxi, bei dem 2018 eine Fußgängerin zu Tode gekommen war. Es war klar, dass die letzte Verantwortung für die Fahrsicherheit bei der Testfahrerin liegen sollte, die im autonomen Fahrzeug saß - die jedoch im entscheidenden Moment auf ihr Smartphone schaute.

Aber der Paarlauf von Mensch und Maschine ist noch viel komplizierter. Eric Hilgendorf, Professor für Strafrecht in Würzburg, wies auf die derzeit wieder einmal geführte Diskussion über den Lügendetektor hin. Sollte die Technik tatsächlich so weit sein, dass sie den Lügner vor Gericht entlarven könnte - welcher Richter würde sich darüber hinwegsetzen? "Die Entscheidung geht auf die KI über, entweder faktisch oder rechtlich."

Susanne Beck, Inhaberin des Lehrstuhls für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Universität Hannover, schilderte ein ähnliches Beispiel aus dem Gesundheitswesen. Diagnostik mithilfe bildgebender Verfahren entwickelt sich gerade zu einem wichtigen Anwendungsfeld von KI. Sie schilderte den Fall einer Gendiagnostikerin, die ein Programm zum Erkennen genetischer Erkrankungen nutzte. Die Diagnose war falsch und führte zu einer fehlerhaften Therapie. Klar, verantwortlich war am Ende die Medizinerin, womöglich sogar strafrechtlich. Aber wenn man genau hinschaut, verschwimmen des Menschen Werk und des Computers Beitrag. Beck spricht hier von kognitiver Trägheit: "Man muss sich aktiv gegen das entscheiden, was der Computer vorgibt." Was gar nicht so leicht ist, denn auch ein Nein zum KI-Vorschlag ist eine Entscheidung, für die die Ärztin haftbar sein kann.

Man ahnt also, dass das Strafrecht nicht so recht passt, wenn beide Fehler gemacht haben, der Mensch und die Maschine. Könnte man der Diagnostikerin wirklich vorwerfen, sie habe ihre Sorgfaltspflicht verletzt, fragte Dieter Inhofer, Leitender Oberstaatsanwalt in Freiburg. Susanne Beck erwartet deshalb einen "Rückgang strafrechtlicher Verantwortlichkeit" in Bereichen, in denen KI eingesetzt wird.

Die Schwächen der Technologie sollten kein Grund sein, sie pauschal abzulehnen

Weniger Strafrecht heißt aber nicht unbedingt weniger Haftung, zumindest, soweit es um den Ersatz von Schäden geht. Wenn sich Verschulden im Zusammenwirken von Mensch und Maschine so verdünnt, dass es nicht mehr nachweisbar ist, greifen Zivilrechtler auf die Gefährdungshaftung zurück, die den Betreiber einer mit Risiken behafteten Anlage auch ohne Verschulden für Schäden regresspflichtig macht. Man kennt das längst vom Autofahren; im Zweifel haftet der Halter. Beziehungsweise seine Versicherung.

Nicht alle juristischen Probleme im Umgang mit KI haben freilich damit zu tun, dass die Technologie so wenig menschlich ist. In einem Punkt scheint die KI dem Menschen sogar ähnlich zu sein, leider im negativen Sinn. Sie hat Vorurteile und neigt zu Diskriminierungen. Bekanntestes Beispiel ist der Einsatz von KI für die Berechnung der Rückfallwahrscheinlichkeit von Straftätern in den USA. Das liegt an den Trainingsdaten. Weil die KI mit überproportional vielen Rückfall-Beispielen von Menschen dunkler Hautfarbe gefüttert worden sei, verzerre sie die Prognosen zu Lasten dieser Gruppe, sagte Martin Eifert aus Berlin. Ähnliche Rückkopplungseffekte gebe es beim KI-Einsatz zur Verbrechensprävention. Wenn die KI ein bestimmtes Viertel als besonders gefährlich einstufe, nehme die Polizei dort mehr Kontrollen vor - und fördere dadurch noch mehr Delikte zu Tage, die wiederum in die Software einfließen. Ein Teufelskreis der Diskriminierung.

Eiferts Schlussfolgerung ist freilich keineswegs eine pauschale Absage an die Technologie. Sondern ein Plädoyer, hier nach Stärken und Schwächen zu sortieren. Bei gravierenden Grundrechtseingriffen dürfte ihr Einsatz in der Regel ausgeschlossen sein, da muss der Mensch ran. Ihr Platz sei aber dort, wo sie dank einer nachgewiesen geringen Fehlerrate die Qualität von Entscheidungen verbessere. Denn es gebe keinen Grund, menschliche Entscheidungen zu romantisieren, gab Eifert zu bedenken. Sie seien bekanntermaßen äußerst fehleranfällig.

Zur SZ-Startseite

SZ PlusPsychologie
:Sex mit einer Maschine

Die Nachfrage nach Puppen für intime Begegnungen steigt in Zeiten der Pandemie. Was für Unternehmer ein lukratives Produkt ist, bedeutet für Käufer meist viel mehr. Über ein zweifelhaftes Geschäft.

Lesen Sie mehr zum Thema