Ein paar Minuten hat Michael Colborne für das gebraucht, was die Polizei in mehr als 30 Jahren nicht zustande brachte. Total einfach sei es gewesen, hat er der Süddeutschen Zeitung mal am Telefon erzählt – das alte Fahndungsfoto hochladen, kurz abwarten, und schon hatte er sie gefunden: Daniela Klette, eine der meistgesuchten Terroristinnen der Bundesrepublik. Das Mittel seiner Wahl war das KI-Programm Pimeyes, das Millionen Fotos aus dem Internet anhand biometrischer Merkmale auf Treffer absucht, wenn man es mit dem Bild einer beliebigen Person füttert. Das Problem der deutschen Polizei ist nur: Solche Programme darf sie nicht benutzen.
Daniela Klette wurde am Ende zwar doch noch festgenommen, ein paar Wochen, nachdem der Bellingcat-Journalist Colborne ihr Foto bei einem Berliner Capoeira-Verein gefunden hatte. Aus dem Landeskriminalamt Niedersachsen hieß es aber, ein „anderer Hinweis aus der Bevölkerung“ habe zu ihr geführt. Nicht die künstliche Intelligenz (KI).
Auch Kriminelle haben das riesige Potenzial der KI für sich entdeckt
Im Jahr 2024, in dem alles und jeder über künstliche Intelligenz spricht, machen sich auch die Sicherheitsbehörden ihre Gedanken: Wie lässt sich diese potenziell revolutionäre Technologie nutzen, um das Verbrechen zu bekämpfen? Um untergetauchte Straftäter zu finden? Zumal ja auch Kriminelle das riesige Potenzial für sich entdeckt haben, zum Beispiel für Enkeltrickanrufe mit künstlich imitierten Stimmen oder für Fake-Videos zur Desinformation.
Davor warnt das Bundeskriminalamt an diesem Mittwochmittag in einem kleinen Einspielfilm, unterlegt mit apokalyptischen Bässen. Den Film, sagt Holger Münch, der Präsident des BKA, hätten seine Fachleute komplett mit künstlicher Intelligenz produziert. Damit also eröffnet Münch die jährliche Herbsttagung des BKA in Wiesbaden, bei der es diesmal um KI gehen soll. Münch sagt, seine Ermittlungsbehörde sei bei dieser „Schlüsseltechnologie“ gefordert, nicht nur „Schritt zu halten“, sondern „early user“ zu sein. Blöd nur, dass die Polizeibehörden anderer Staaten all das schon viel früher genutzt haben und folglich längst viel weiter sind, allen voran die der USA, wo KI schon Polizeiberichte schreibt.
Auch Bundesinnenministerin Nancy Faeser (SPD) sieht das so: Die deutschen Sicherheitsbehörden seien im Bereich KI, überhaupt im Digitalen, „nicht auf der Höhe der Zeit“, sagt sie. „Vor allem, was die Befugnisse betrifft.“ Da ist sie sich mit BKA-Chef Münch einig.
Der Fall Klette hängt der Polizei nach
Der Fall Klette hängt der Polizei nach. So eine Blamage sollte nicht wieder passieren, findet auch Faeser. Nach dem Anschlag von Solingen Ende August hatte die damals noch existente Ampelkoalition ein Sicherheitspaket auf den Weg gebracht, darin sind auch neue Befugnisse für die Polizei zur biometrischen Gesichtserkennung verschnürt. Erst weichte die FDP, die schon Faesers Herzensanliegen IP-Adressen-Speicherung abgebügelt hatte, die Regelungen auf, und Mitte Oktober blockierte dann der Bundesrat diesen Teil des Pakets – den unionsregierten Bundesländern gehen die geplanten Befugnisse nicht weit genug. Jetzt ist die Ampel endgültig hinüber und das Projekt Gesichtserkennung damit fürs Erste auch.
Wobei mancher ganz froh darüber sein dürfte. Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider hatte in der Legal Tribune Online davor gewarnt, dass sich das BKA eine „Superdatenbank“ zulegen könnte, in der die Gesichter Millionen unbescholtener Bürger abgespeichert werden, die dann ständig Sorge haben müssten, überwacht zu werden. Der Bremer IT-Sicherheitsrechtler Dennis-Kenji Kipker sprach in der Bundestagsanhörung zum Sicherheitspaket sogar von einem „sicherheitsbehördlichen Daten-Supergau“.
Diese Vorbehalte, sagt Faeser in Wiesbaden, könne sie „nur zum Teil nachvollziehen“. Massenüberwachung oder dergleichen wolle man doch gar nicht. Eigentlich verbietet die neue KI-Verordnung der EU viele Arten der Gesichtserkennung. Ausnahmen im Namen der nationalen Sicherheit sind aber möglich.
„Rein parteipolitisch motiviert“
Am Mittwoch sagte Faeser bei der BKA-Tagung, sie führe seit dem Koalitionsbruch Gespräche mit CDU und CSU, wie man bei dem Thema noch vor der Bundestagswahl zusammenkommen könnte – genauso beim Thema Vorratsdatenspeicherung. Die Absage an die Gesichtserkennung durch die unionsgeführten Länder im Bundesrat nannte sie „rein parteipolitisch motiviert“ und „unverantwortlich“. Grundsätzlich will die Union im Fall eines Wahlsiegs noch weitergehende Befugnisse für die Ermittler durchsetzen. Nicht nur bei der Gesichtserkennung.
Es gibt ja noch viele weitere Felder, in denen KI-Anwendungen den Ermittlern helfen können. Schon seit ein paar Jahren nutzen einige Polizeibehörden in Deutschland spezielle Programme, beispielsweise wenn es um Missbrauchsdarstellungen von Kindern geht. Dann müssen nicht mehr einzelne Beamte terabyteweise Daten auf sichergestellten Festplatten nach verdächtigem Material durchsuchen, das erledigt das Programm.
KI-Systeme könnten künftig bei allen möglichen Verbrechen die teils riesigen digitalen Fallakten nach bestimmten Mustern scannen und direkt Vermerke daraus erstellen, wie bereits an manchen Orten in den USA. Programme könnten auch automatisch in den unterschiedlichen Datenbeständen der vielen örtlichen Polizeibehörden nach Mustern und Querverbindungen zwischen Taten und Verdächtigen suchen, um Gemeinsamkeiten zu erkennen und dadurch Täter ausfindig zu machen. Faeser verweist auf die Terrorserie des NSU, die jahrelang niemandem als Terrorserie aufgefallen war. Vielleicht, so ihre Botschaft, hätte ein Analysetool die Verbindung zwischen den Anschlägen viel früher gefunden.
Dafür allerdings müssten enge Grenzen gelten: Das Bundesverfassungsgericht hat schon vor fast zwei Jahren Gesetze aus Hessen und Hamburg für verfassungswidrig erklärt, die so eine allumfassende Musteranalyse erlaubt hatten. Dass Programme wie die der US-Firma Palantir praktisch ohne Beschränkungen auch die Daten von Zeugen und anderen Dritten analysieren, ging den Verfassungsrichtern zu weit. Auch für solch eine automatisierte Datenanalyse hätte es mit dem Sicherheitspaket eine Rechtsgrundlage geben sollen.