Künstliche Intelligenz und Rechtsprechung:Ein Chatbot für Justitia

Lesezeit: 3 min

KI und Justiz: ein noch ungeklärtes Verhältnis (Foto: Florian Gmach/imago images)

Lassen sich Richter bald von Computern beraten? Die Risiken eines KI-Einsatzes in der Justiz sind groß, aber Beispiele aus der Medizin zeigen, wie es gehen könnte.

Von Wolfgang Janisch, Karlsruhe

Die Justiz steht nicht gerade an der Spitze des technologischen Wandels. Allmählich werden zwar die Aktenwägelchen verschwinden, mit denen der Nachschub an Rechtsstreitigkeiten zu den Richterzimmern transportiert wird, denn die elektronische Akte ist auf dem Vormarsch. Hier und da spricht man bereits von künstlicher Intelligenz, aber da geht es natürlich nicht um den Robo-Richter, sondern um Tools, die ausufernde Anwaltsschriftsätze in Massenverfahren aufbereiten und leichter lesbar machen. Ansonsten bleibt die Justiz, wie sie ist - abwartend.

Hört man allerdings Eric Hilgendorf über den Einsatz künstlicher Intelligenz (KI) im Rechtswesen reden, dann lässt sich vorhersagen, dass die Revolution auch die Justiz erfassen wird. Der Professor für Strafrecht an der Universität Würzburg hat Themen zusammengestellt, über die man sich schleunigst Gedanken machen sollte - um sie entweder konstruktiv aufzugreifen oder frühzeitig abzuwehren. Technisch denkbar wäre zum Beispiel eine KI-gestützte Analyse von Beweismitteln, die Nutzung von Avataren in einer Telejustiz oder der Einsatz von kulturaffinen und multilingualen Gerichts-Chatbots bei der Vernehmung ausländischer Zeugen. Oder der Einsatz von Lügendetektoren, die allzu fantasiebegabte Zeugen angeblich zuverlässig erkennen können. Oder eben die KI als Richter.

Nun ist es zwar nicht wirklich zu erwarten, dass Maschinen oder neuronale Netze in absehbarer Zeit selbst über Recht und Unrecht entscheiden. Interessanter ist daher die Frage, an welchen Stellen KI in den gerichtlichen Prozess eingebaut werden könnte - und welche Konsequenzen das hätte.

Die Überlegenheit der Technik könnte ins Dilemma führen

Für die sogenannte Kriminalprognose zum Beispiel wären KI-Systeme theoretisch durchaus einsetzbar. Gemeint ist damit die Risikoeinschätzung, die das Gericht trifft, etwa wenn es um eine vorzeitige Entlassung auf Bewährung geht. Vorstrafen, Art des Delikts, soziales Umfeld, Aussichten am Arbeitsmarkt, Verhalten im Vollzug - es fließen allerlei Umstände und Kriterien in eine solche Entscheidung ein und eben auch die Lebenserfahrung des Menschen, der die Entscheidung trifft.

SZ PlusKünstliche Intelligenz
:Spiel's noch mal, Sam

Die Drehbuchautoren in Hollywood streiken zu Recht: Klassiker der Kinogeschichte würden nach KI-Logik heute nicht mehr gedreht. Wie die Technik die Filmwelt zu verändern droht.

Von Susan Vahabzadeh

Würde das Gericht hier ein KI-System einbeziehen, ließe sich die Basis der Entscheidung deutlich verbreitern. Bei der Suche nach statistisch signifikanten Zusammenhängen, wie sie für das Erkennen typischer Kriminalitätsrisiken hilfreich sind, ist KI stark, denn Muster zu erkennen und Korrelationen herzustellen, ist nun mal ihre Natur. Ein Schwachpunkt solcher Systeme ist zwar ihre Neigung zur Reproduktion von Diskriminierungen. Das in den USA gebräuchliche System Compas stufte Menschen mit dunkler Hautfarbe regelmäßig als rückfallgefährdeter ein. Doch lassen sich Verzerrungen durch bessere Aufbereitung der Trainingsdaten vermeiden oder wenigstens verringern.

Außerdem sollte niemand glauben, das menschliche Gehirn sei frei von solchen Effekten. Die Psychologie kennt beispielsweise den "confirmation bias", also die Neigung, Indizien höher zu bewerten, wenn sie dem eigenen Vorurteil entsprechen. Preist man also die menschliche Fehlsamkeit ein, dann erscheint es gar nicht so unplausibel, dass Richterinnen und Richter irgendwann KI-Ratgeber hinzuziehen, wenn erwiesen ist, dass sie wirklich gute Vorschläge machen.

Allerdings könnte exakt diese Überlegenheit der Technologie ins Dilemma führen. "Wenn ein System gute Vorschläge macht, dann gibt es eine starke Tendenz, diese Ergebnisse zu übernehmen", sagte Hilgendorf vor einiger Zeit auf einer Tagung in Berlin. "Dann entscheidet faktisch die KI und nicht der Mensch." Was bei richterlichen Entscheidungen, bei denen es im Extremfall um Freiheit oder Gefängnis geht, niemand wollen kann.

Mensch und Maschine könnten in einen Dialog treten

Susanne Beck, Professorin an der Universität Hannover, hat dieses Problem bei ebenjener Tagung am Beispiel der Medizin dargestellt. Dort spielen bildbasierte Diagnosen eine wachsende Rolle, KI-Systeme können beispielsweise aus einer Gesichtserkennung auf genetische Erkrankungen schließen. Was bei der Richterin das Urteil, ist beim Arzt der Therapievorschlag - eine folgenschwere Entscheidung, für die er sogar haftbar gemacht werden. Was aber, wenn die KI falsch liegt? "Es ist extrem schwer, sich gegen die KI zu entscheiden", sagt Beck.

Dennoch führt sie kein Plädoyer für einen KI-Verzicht, sondern eher für eine lebensnahe Konfiguration. Mensch und Maschine könnten in einen Dialog treten, der Arzt macht Vorschläge, das System antwortet, etwas in der Art. Das könnte auch für die Justiz denkbar sein: Ein System, das konstruktiv mitarbeitet und keine Allwissenheit vorspiegelt.

Ohnehin könnte der Richterschaft ein wenig KI-Unterstützung ganz guttun. Die Kölner Professorin Frauke Rostalski hat vor einiger Zeit ein Smart-Sentencing-Projekt entwickelt, mit dem sich die erhebliche Streubreite in der Strafjustiz abstellen ließe. Denn für einen Wohnungseinbruch wird man beispielsweise in München deutlich härter bestraft als in Freiburg. Die Differenz liegt bei etwa 20 Prozent, obwohl überall dasselbe Gesetz gilt. Dahinter stecken regionale Straftraditionen, die so ein System sichtbar machen könnte - mehr Gerechtigkeit durch KI. Geht aber leider nicht, weil in der Digitalisierungswüste Deutschland die Trainingsdaten fehlen: Die Urteile, die dafür nötig wären, sind nur zu etwa einem Prozent digitalisiert.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusKünstliche Intelligenz und Urheberrecht
:Einfach nur hungrig

Wie "schlau" die KI ist, hängt davon ab, wie viele Texte sie verschlungen hat. Aber was darf sie lesen und was daraus machen? Autoren und Künstler wollen jetzt Grenzen setzen. Die wichtigsten Fragen zum Streit.

Von Jannis Brühl, Wolfgang Janisch, Andrian Kreye

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: