Ermitteln mit "Predictive Policing"-Algorithmen:Polizei-Software soll Verbrechen voraussagen

Predictive Policing Vorhersage Überwachung Zukunft Precrime

Die Hellseher der Polizei brauchen keine Glaskugel, sondern gute Algorithmen.

(Foto: dpa)

Klingt wie "Minority Report": Algorithmen sehen Einbrüche vorher, intelligente Kameras erkennen Terroristen in der Menge. Mit Predictive-Policing-Technik versuchen Ermittler, Verbrechen vorherzusagen. Aktivisten und Datenschützer fürchten neue Kontrollmechanismen.

Von Jannis Brühl, Oberhausen/München

Thomas Schweer weiß, dass er sich nicht beschweren sollte, wenn allen immer nur "Minority Report" einfällt, der Titel eines Science-Fiction-Thrillers mit Tom Cruise. "Der Name war ein Scherz. Als ich 2002 die Idee zu unserer Software hatte, lief der Film gerade im Kino", sagt Schweer. Er nannte sein Computerprogramm "Precobs" - angelehnt an die "Precogs" aus dem Hollywood-Film, die dank ihrer hellseherischen Fähigkeiten Morde verhindern können.

Verbrechen in der Zukunft voraussagen - so etwas Ähnliches machen auch Schweer und sein Geschäftspartner Ralf Middendorf. Die beiden sitzen aber nicht in einer futuristischen Stadt voller selbstfahrender Autos, sondern in einem Büro am Stadtrand von Oberhausen, hinter einem Wald, der GPS-Signale verschluckt. Von hier aus spüren sie Einbrecher in der Zukunft auf. Schweer ist Sozialwissenschaftler mit Schwerpunkt Kriminalität, Middendorf Informatiker. Das Duo steht für jene Kombination aus Taten- und Datenanalyse, die gerade die Arbeit von Strafverfolgern verändert: Predictive Policing - vorhersagende Polizeiarbeit - umfasst mehrere Technologien, mit denen Ermittler Verbrechen vorhersagen wollen. Sie reichen von der automatischen Auswertung von Einbruchsstatistiken über Listen mit potenziellen Teilnehmern an Schießereien bis hin zu komplexen Systemen aus Drohnen und Kameras, die Terroranschläge vorhersagen sollen.

Es gibt hier keine Glaskugel, nur Programmiercode, für den Laien unverständliche Zeichenkombinationen in einem kleinen Fenster auf Middendorfs Laptop. Precobs berechnet die Wahrscheinlichkeit, mit der in einem bestimmten Gebiet ein Einbruch geschehen wird. In den gesammelten Daten der Einbrüche der vergangenen Jahre - Ort, Art und Weise, Tatzeit - findet der Algorithmus Muster, aus denen sich künftige Ereignisse ableiten lassen. Die Polizei kann dann Streifenwagen in der als gefährdet markierten Gegend konzentrieren.

Ermitteln mit "Predictive Policing"-Algorithmen: Rot heißt: besonders bedroht. Der "Precobs"-Algorithmus errechnet, in welchen Münchner Straßenzügen Einbrüche wahrscheinlich sind.

Rot heißt: besonders bedroht. Der "Precobs"-Algorithmus errechnet, in welchen Münchner Straßenzügen Einbrüche wahrscheinlich sind.

(Foto: IfmPt)

Die Software sucht nicht nach Wahrheit, sondern nach Korrelationen: Wenn auf A und B oft genug C gefolgt ist, geht sie davon aus, dass wahrscheinlich auch beim nächsten mal C folgen wird, wenn A und B zusammen auftreten. Dann schlägt sie Alarm. Einbrecher kehren oft innerhalb weniger Tage in ein Haus oder eine Nachbarschaft zurück, gerne zur gleichen Zeit eine Woche später. Schließlich haben sie den Tatort um die gleiche Zeit schon einmal leer vorgefunden. Kriminalität ist also berechenbar, zumindest die professioneller Täter.

Mensch oder Maschine - wer entscheidet über Kontrollen?

Nachdem Beamte in Zürich gute Erfahrungen mit dem Computerprogramm gemacht haben, testet es die bayerische Polizei von diesem Monat an in Nürnberg und München (mehr dazu hier). Mehrere Landeskriminalämter sind an der Software interessiert, darunter das von Baden-Württemberg. Auch Polizeigewerkschafter beschäftigen sich intensiv mit Predictive Policing. Skeptiker wie der Aktivist Matthias Monroy glauben aber, dass die Software Vorurteile von Polizisten gegen anders aussehende Menschen noch verstärkt und Unschuldige zu Zielen von Kontrollen machen. Und Datenschützer fordern, den Quellcode, also die DNA, aller Vorhersage-Programme offenzulegen. Schweer hält die Software dagegen für unproblematisch. Er zuckt mit den Schultern und sagt knapp: "Wir verwenden keine personenbezogenen Daten." Das Programm greife nur auf Details der Verbrechen zu, nicht auf Details einzelner Personen. Zudem sei die Technik nur eine Hilfestellung für Beamte aus Fleisch und Blut. Am Ende entscheide ein Mensch darüber, wo und wer kontrolliert werde.

Schweer weiß aber, dass das Thema heikel, der Hunger auf Daten schwer zu bremsen ist: "Da werden Begehrlichkeiten entstehen, wenn die Technik da ist." Manche Stadt in Europa will schon heute auch andere Delikte vorherberechnen lassen, wie Autodiebstahl oder Raub. In den USA versuchen Polizei-Nerds bereits, mit Computern herauszufinden, wer bald zum Mörder werden könnte.

Das ganze Bild für Sie
Predictive Policing
Predictive policing 360 Grad

Vorhersage: Einbruch, Raub, Randale. Mit modernen Algorithmen will die Polizei die Wahrscheinlichkeit von Verbrechen in der Zukunft berechnen. Das wirft ethische Fragen und Datenschutzprobleme auf.

360° - Die Reihe auf SZ.de erzählt Geschichten, die im Nachrichtenalltag oft untergehen, und nähert sich ihnen aus verschiedenen Blickwinkeln.

Der Computer setzt Bürger auf die "heiße Liste"

In Chicago klopften Beamte an der Tür eines 22-Jährigen, um ihn zu informieren, dass er bald jemanden erschießen oder selbst erschossen werden könnte. Er war auf der "Heat List" gelandet. Auf ihr stehen die Namen von 400 Menschen, die der Computer für besonders gefährdet hält, in Gewaltverbrechen verwickelt zu werden. Der Betroffene war wegen gewaltloser Delikte wie Cannabisbesitz aktenkundig, ein Freund von ihm war im Jahr zuvor erschossen worden. Beides korrelierte mit der Wahrscheinlichkeit, jemanden zu töten oder getötet zu werden. Die zugrunde liegende Annahme: Gewaltkriminalität in einer Stadt spielt sich in einem relativ kleinen, zusammenhängenden Zirkel ab.

Die Stadt East Orange im US-Staat New Jersey hat ihre Kriminalitätsrate in zehn Jahren um 76 Prozent gesenkt. Das Rezept der Polizei: Totalüberwachung und Vorhersagetechnologien. Überall in der Stadt installiert sind: mit IP-Adressen ausgestattete Kameras, die Daten empfangen und senden, akustische Sensoren, die bei Pistolenschüssen Alarm schlagen, und Systeme, die automatisch Nummernschilder erkennen. Die Polizei rühmt sich auch, dass ihre Kameras mit besonders intelligenter Software ausgestattet sind: Anhand der Bewegungen der Menschen auf der Straße könnten sie beurteilen, ob die Gefilmten gerade eine Schlägerei beginnen oder einen Drogendeal abwickeln.

Doch die Technik ist für solche Analysen noch nicht wirklich ausgereift. Viele Systeme haben Schwierigkeiten, einen allein herumstehenden Koffer von einem Mülleimer zu unterschieden, sagt Jens Hälterlein. Der Soziologe forscht an der TU Berlin zu den gesellschaftlichen Folgen von Videoüberwachung und steht mit vielen Entwicklern in Kontakt. Schon eine flackernde Neonröhre in der Nähe kann das "Tracking" unmöglich machen, die automatische Nachverfolgung eines Menschen, der sich vor der Kamera bewegt.

Dass die Systeme trotzdem Zukunft haben, glaubt offenbar die Berliner Politik. Sie pumpt Millionen Euro in die Erforschung der Technologien. So förderte das Forschungsministerium mehrere Projekte, die sich mit vorhersagender Überwachungstechnik befassen: Das Programm Adis, an dem das bayerische LKA und das Fraunhofer-Institut mitarbeiten, soll laut Ministerium die Interpretation von Gefahrensituationen ermöglichen, beispielsweise aggressive Verhaltensweisen.

Ein weiteres System heißt CaminSens, ein "intelligentes Videosystem, das Sicherheitspersonal auf potenzielle Gefährdungssituationen aufmerksam macht". Es soll in Bahnhöfen und Stadien eingesetzt werden. Auch das Projekt APFel (Analyse von Personenbewegungen an Flughäfen mittels zeitlich rückwärts- und vorwärtsgerichteter Videodatenströme) erhielt 2,5 Millionen Euro vom Ministerium. Damit untersuchen Informatik-Institute und Flughafenbetreiber, wie verdächtige Personen auf Überwachungskameras markiert werden können und wie der Computer ihren wahrscheinlichen weiteren Laufweg vorhersagen kann.

Motiv? "Davon hat der Algorithmus keine Ahnung"

Soziologe Hälterlein warnt, dass so bestimmte Vorstellungen, was kriminelles Verhalten sei und was nicht, an die Technik ausgelagert würden. "Das sollte aber im Einzelfall von Menschen überprüfbar und aushandelbar sein. Wir sollten das nicht der 0 und der 1 überlassen", sagt er in Anspielung auf den binären Programmiercode, der nur mithilfe der beiden Ziffern geschrieben wird.

Die entscheidende Frage beim Predictive Policing wird sein: Wird ein soziales und psychologisches Problem - Kriminalität - mit einer technischen Lösung - Informatik - bekämpft?

An der mexikanischen Grenze hat das US-Heimatschutzministerium eine Maschine aufgestellt, mit der sich Einreisende unterhalten müssen. Sie misst Stimmlage, und Gesichtsausdruck und alarmiert einen menschlichen Beamten, wenn sie vermeintlich verdächtiges Verhalten misst. Der Name, den sich George Orwell nicht besser hätte ausdenken können: "Automatisierter Virtueller Agent für Wahrheitsbeurteilung in Echtzeit", amerikanische Abkürzung: Avatar (Broschüre des Programms als PDF).

Das selbe Ministerium experimentiert auch mit dem Programm Fast: Es misst Atmung, Augenbewegungen, Körpersprache, und Änderungen im Sprechrhythmus während des Gesprächs mit Sicherheitsbeamten, etwa an der Passkontrolle. Was die Technik besonders fragwürdig macht: Es ist höchstumstritten, ob "malevolent intent" - eine bösartiges Absicht - auf diese Weise wissenschaftlich seriös messbar ist. Selbst wenn: Schon eine geringe Fehlerquote würde bei Massentests eine große Anzahl Unschuldiger als verdächtig markieren. Und was dann, fragt das US-Magazin Atlantic: Wie beweist man die Unschuld von jemandem, wenn das ihm vorgeworfene Verbrechen nie begangen wurde?

Die Maschinen wissen also, was wahrscheinlich passieren wird. Aber wissen sie auch, warum? Nein, sagt Richard Berk von der Universität Pennsylvania. "Der Computer gibt ihnen keinen Grund für das Verbrechen. Davon hat der Algorithmus keine Ahnung." Berk erforscht mit Algorithmen die Wahrscheinlichkeit, dass einzelne Straftäter rückfällig werden. Während klassische Ermittler immer auch die Motive für eine Tat verstehen wollen, könnte sich die Unwissenheit der Maschinen auf den Menschen übertragen: "Wenn Schuhgröße oder Sommersprossen eines Menschen statistisch ein Verbrechen vorhersagen, werde ich diese Information benutzen, selbst wenn ich keine Ahnung habe, warum das funktioniert." Auch Middendorf, der Programmierer aus Oberhausen, sagt: "Wir sehen Zusammenhänge, die wir nicht erklären können."

Menschliche Theorien über Ursache und Wirkung werden irrelevant

Das ist die Revolution, die der Internet-Vordenker Chris Anderson "Das Ende der Theorie" nennt: Maschinen wühlen sich durch Datenberge und finden Muster, menschliche Theorien über Ursache und Wirkung, mit denen gesellschaftliche Entwicklungen bisher erklärt wurden, werden irrelevant (hier Andersons Originalartikel).

Terrorfahnder sollen das Unvorhersehbare vorhersehen: einen Anschlag. Eine Maschine, die ihnen sagt, wann und wo der nächste passiert, ist ihr Traum. Sie wird gebaut: Die EU gibt 3,3 Millionen Euro für das Projekt "Proactive" aus, Forscher aus sechs Ländern sind dabei. Das System soll es ermöglichen, "Ad-hoc-Netzwerke" an öffentlichen Plätzen aufzubauen, zum Beispiel bei Großveranstaltungen. Es soll analysieren, ob sich am überwachten Ort Vorfälle häufen, die einem typischen Muster vor einem Anschlag entsprechen. Basis könnte ein "Internet der Dinge" sein, welches das System mit Daten aus verschiedensten Sensoren füttert. Die würden mit einer "Terrorindikator-Datenbank" abgeglichen. Auf Bildern aus Überwachungskameras sollen verdächtige Bewegungen von Fahrzeugen auf den Straßen und Menschen in der Menge erkannt werden. Dazu kommen Beobachtungen, die Polizisten über eine Android-App an das System schicken. Über allem schwebt eine Drohne und filmt, sie soll von der Bundeswehr-Uni in München kommen.

"Tracklets" heißen mehrere scheinbar voneinander unabhängige Bewegungen, zum Beispiel in einer Menschenmenge. Für "Proactive" sollen sie aus Aufnahmen extrahiert und automatisch analysiert werden. Die Technik soll Polizisten melden, ob an dem gefilmten Ort eine "abnormale oder chaotische Situation" herrscht. Sie könnte sich auch für Straßenproteste eignen, um die Menge zu überwachen. Ihre Kameras sollen verdächtiges Verhalten erkennen. Zum Beispiel, wenn Beobachtete "ein Objekt fallen lassen oder eine Maske tragen". Weiteres Beispiel für verdächtiges Verhalten: "Benutzung eines Mobiltelefons".

Auch chinesische Wissenschaftler wollen mit intelligenten Videosystemen Terroristen aus Menschenmassen herausfiltern: An der Southwest University in Chongqing arbeiten sie daran, hohe Stresslevel bei Einzelpersonen automatisch zu erkennen, berichtet die Zeitung South China Morning Post. Hyperspektralanalyse heißt die Technik, mit der sich in jedem Gesicht in der Masse auf den jeweiligen Anteil des Sauerstoffs im Blut schließen lassen soll. Wer mehr Sauerstoff im Blut hat, hat mehr Stress - und kann sich für den Sensor damit verdächtig machen.

Hälterlein hat genug gesehen, um sich gegen intelligente Videoüberwachung auszusprechen: "Es ist nichts anderes als eine Waffe: ein Hilfsmittel für Menschen, die andere Menschen kontrollieren wollen."

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: