Bundesverfassungsgericht:Grenzen für superschlaue Polizeicomputer

Lesezeit: 4 min

Polizeigesetze in Hessen und Hamburg waren der Anlass, das Urteil des Bundesverfassungsgerichts geht aber alle Bundesländer an. (Foto: Uli Deck/DPA)

Wenn Ermittler mithilfe künstlicher Intelligenz Verbrecher jagen, kann das Grundrechte verletzen und damit verfassungswidrig sein, befindet Karlsruhe. Das Urteil setzt automatisierten Datenanalysen hohe Hürden.

Von Wolfgang Janisch, Karlsruhe

Wenn man es technisch formulieren will, dann ist das Bundesverfassungsgericht eine Art Provider, der die permanenten Updates für das Betriebssystem der Republik liefert, für das Grundgesetz. 1983 hat das Gericht den Datenschutz geadelt und 2008 ein "Computer-Grundrecht" zum Schutz der Vertraulichkeit der Festplatte geschaffen. Nun, im Februar 2023 ist die künstliche Intelligenz (KI) an der Reihe: Erstmals befasst sich ein Karlsruher Urteil ausführlich mit ihren Risiken und Nebenwirkungen in der polizeilichen Ermittlungsarbeit - und trifft Schutzvorkehrungen für die Zukunft.

Angestoßen wurde das Verfahren von der Gesellschaft für Freiheitsrechte, den Anlass boten zwei Polizeigesetze. Hessen hat einen Paragrafen zur "automatisierten Datenanalyse" geschaffen, Hamburg ebenfalls, nur spricht man dort verschämt von "Datenauswertung" und hat noch gar nicht damit angefangen. Hessen hingegen ist mit der Plattform Hessendata schon relativ weit, auch wenn man dort nach eigenen Angaben noch keine KI nutzt.

Die Polizei sucht in den Datenbanken nach Mustern, um Kriminellen auf die Spur zu kommen. Bei einer Serie von Geldautomatensprengungen, so wurde in der Verhandlung berichtet, sei dies erfolgreich gewesen. "Manchmal sind es die kleinsten Teile, die die größte Erkenntnis bringen", erläuterte damals Hessens Innenminister Peter Beuth.

Es ist kein Veto gegen KI, aber der Einsatz muss rechtsstaatlich flankiert sein

Allerdings erlauben beide Vorschriften nach ihrem Wortlaut weitaus mehr, als die Polizei derzeit tut, sie gestatten sogar, wozu die Polizei derzeit vielleicht noch gar nicht so recht in der Lage ist - den Gebrauch selbstlernender künstlicher Intelligenz zur vorbeugenden Kriminalitätsbekämpfung.

Das Bundesverfassungsgericht hat die Normen nun für unverhältnismäßig und damit grundgesetzwidrig erklärt; Hessen hat bis Ende September Zeit zur Korrektur, der Hamburger Paragraf ist von sofort an nichtig. Und dies, obwohl man auch in Karlsruhe konzediert, dass die automatisierte Analyse "relevante Erkenntnisse" zutage fördern könne, die sich sonst nicht gewinnen ließen, sagte Gerichtspräsident Stephan Harbarth bei der Urteilsverkündung. Deshalb ist das Urteil keineswegs ein Veto gegen den Einsatz moderner Technologie. Rechtsstaatlich flankiert, darf die Polizei künftig mit Computern und KI auf Verbrecherjagd gehen.

Zugleich aber lässt das Urteil - als Berichterstatterin war Gabriele Britz zuständig - keinen Zweifel daran, dass leistungsstarke Rechnersysteme im Dienste der Polizei ganz neue Gefahren schaffen. Das gilt schon wegen der schieren Menge der einbezogenen Daten und vor allem wegen der nahezu unbegrenzten Möglichkeit, all diese Informationen in Sekundenschnelle zu verknüpfen. Die automatisierte Datenanalyse sei darauf gerichtet, "neues Wissen zu erzeugen", schreibt das Gericht. Mit einem Klick könne die Polizei umfassende Profile von Personen, Gruppen und Milieus erstellen und dadurch auch Unbeteiligte zum Ziel polizeilicher Maßnahmen machen.

Die Systeme lernen von selbst - das bedroht ihre staatliche Kontrolle

Es geht also um Techniken des "Data Mining", um die Analyse statistischer Auffälligkeiten, aus denen weitere Schlüsse gezogen werden können. Und um "Predictive Policing", woraus man sich Aufschluss über die Gefährlichkeit von Personen erhofft. All das kann von großem Nutzen sein, sofern die Analyse stimmt. Aber es ist rechtsstaatlich verheerend, wenn es den Falschen erwischt. Beuths Diktum vom Nutzen der vielen kleinen Dinge hat mithin eine Schattenseite, das wird in dem Urteil deutlich: Es sind all die kleinen Informationen, die große Risiken für die Grundrechte erzeugen.

Denn dieses "neue Wissen" ist fehleranfällig. Nach den Worten des Gerichts greift der Einsatz lernfähiger KI-Systeme besonders tief in Grundrechte ein, weil es sich von der kriminologisch fundierten Programmierung löst und seine Suchmuster weiterentwickelt. Solche Systeme könnten "selbständig weitere Aussagen im Sinne eines predictive policing" treffen, heißt es in dem Urteil. Sie emanzipieren sich also von ihren polizeilichen Vätern und Müttern und durchlaufen maschinelle Lernprozesse, die keiner mehr durchschaut. Das ist gewiss eine Stärke von KI. Aber wenn es um Polizeimaßnahmen gegen Verdächtige geht - in einer Sphäre, wo der Staat wirklich zur Gewalt werden kann - , liegt in diesem Blackbox-Phänomen eine Gefahr: "Dann droht zugleich die staatliche Kontrolle über die Anwendung verloren zu gehen", so das Gericht.

Das Gericht spricht auch eine weitere Schwäche von KI an - ihre Anfälligkeit für Diskriminierung. Das ist meist ein Problem der Trainingsdaten. Wenn das System lernt, dass Tatverdächtige häufig aus bestimmten Ländern stammen, dann reproduziert es diese Erkenntnisse und vertieft sie - obwohl der Umstand, dass Ausländer häufiger verdächtigt werden, meist Konsequenz menschlicher Vorurteile ist. Das Gericht mahnt deshalb, KI mit spitzen Fingern anzufassen: "Daher dürften selbst lernende Systeme nur unter besonderen verfahrensrechtlichen Vorkehrungen zur Anwendung kommen, die trotz der eingeschränkten Nachvollziehbarkeit ein hinreichendes Schutzniveau sichern."

Newsletter abonnieren
:Deutscher Alltag-Newsletter

Erhalten Sie einmal wöchentlich Einblick in deutsche Alltagsmomente - beobachtet und beschrieben von Kurt Kister. Kostenlos anmelden.

Überhaupt liefert das Urteil eine regelrechte Ansammlung von Schwellen und Hürden, die überwunden werden müssen, bevor automatisierte Datenanalyse zum Einsatz kommt. Mal sind sie höher, mal niedriger, das hängt auch davon ab, wie intim oder wie umfassend die Daten sind, die in den großen Topf geworfen werden. Hessen nutzte beispielsweise das Vorgangsbearbeitungssystem ComVor, einen riesigen Datenbestand, in dem auch Lappalien gespeichert sind, Fundsachen zum Beispiel. Und der nun gekippte Paragraf hätte der Polizei sogar die Lizenz zur Facebook-Recherche verschafft. Verfassungsrechtlich heißt dies Alarm - da liegen die Hürden und Schwellen sehr hoch.

Gleiches gilt, wenn besonders komplexe Analysetools eingesetzt werden, also letztlich echte KI. Kann man machen, sagt das Verfassungsgericht, aber eben nur, wenn dies zum "Schutz besonders gewichtiger Rechtsgüter" nötig ist. Die Voraussetzungen sind hier so streng wie bei Lauschangriff und Online-Durchsuchung: Es muss eine "hinreichend konkretisierte Gefahr" für Leib, Leben oder Freiheit der Person bestehen. Das Urteil ist nun der Maßstab für alle Bundesländer: Auch Nordrhein-Westfalen setzt bereits Software ein, Bayern arbeitet an deren Einführung.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusKünstliche Intelligenz
:Chat-GPT, der klassische Bullshitter

Künstliche Intelligenzen erleichtern den Alltag. Microsoft und Google begeben sich bereits in einen wilden Wettbewerb. Aber wehe, die Programme lügen, fluchen oder stiften Chaos.

Von Andrian Kreye

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: