Überwachung mit Predictive Policing "Unbeteiligte geraten ins Kontrollraster"

Der Computer sieht das Verbrechen kommen: Deutsche Polizisten setzen erstmals auf Software-Algorithmen, um Einbrüche vorherzusagen. Bald schon könnte man sich mit einem Tweet verdächtig machen, kritisiert der Aktivist Matthias Monroy.

Von Jannis Brühl

Die Software ermittelt in München und Nürnberg. Dort testen Polizisten erstmals einen Computeralgorithmus, der vorhersagen soll, wann und wo mit hoher Wahrscheinlichkeit als nächstes ein Einbruch geschieht (mehr zu dem Projekt hier). Die Software berechnet anhand statistischer Methoden und auf Grundlage von Daten über vergangene Einbrüche, welche Stadtgebiete besodners gefährdet sind. Diese können Polizisten dann konzentrierter überwachen. Das ist Teil einer Entwicklung, die gerade erst beginnt. In deutsche Reviere hält predictive policing Einzug - der englische Begriff steht für Computertechniken, die Verbrechen erkennen sollen, bevor sie geschehen (mehr zu Predictive Policing hier).

Einer der wenigen in Deutschland, die sich bisher mit möglichen gesellschaftlichen Folgen dieser Entwicklung beschäftigen, ist Matthias Monroy. Er schreibt für die polizeikritische Zeitschrift Bürgerrechte & Polizei über Überwachung und Datenschutz und ist wissenschaftlicher Mitarbeiter des Linke-Abgeordneten Andrej Hunko.

SZ: Herr Monroy, die Polizei versucht mit diversen technischen Mitteln, in die Zukunft zu blicken. Was bedeutet der Einsatz von Algorithmen in der Polizeiarbeit für den Bürger?

Matthias Monroy: Damit sind diverse Probleme verbunden. Zum einen wird passieren, was sich schon in den USA beobachten lässt: Das racial profiling - also Kontrollieren von Personen aufgrund ihrer ethnischen Zugehörigkeit - beziehungsweise von unterprivilegierten Personen, wird verstärkt. Wen hält die Polizei verstärkt an, wenn sie davon ausgeht, dass in den nächsten Stunden oder Tagen an einem Ort ein Einbruch bevorsteht? Ich behaupte mal: eher Menschen in verwahrloster Kleidung, Menschen anderer Hautfarbe, oder in Kapuzenpullovern - bestimmte Raster, die ohnehin schon bei der Polizei existieren.

In den jetzt in Bayern laufenden Pilotprojekten werden aber nur anonyme "Tatdaten" verwendet - wann wurde wo und wie eingebrochen - genutzt, ohne Hinweise auf Einzelpersonen.

Die Polizei in München sagt, dass keine personenbezogenen Daten gespeichert werden und dass nur Statistiken verarbeitet werden. Das stimmt zwar - zumindest jetzt am Anfang - aber diese Statistiken werden dann auf Einzelpersonen angewandt, die sich an dem überwachten Ort aufhalten. Individuen werden also Ziel polizeilicher Maßnahmen auf Basis dieser Statistiken. So geraten viele Unbeteiligte ins Kontrollraster.

Das ganze Bild für Sie Predictive Policing
http://media-cdn.sueddeutsche.de/globalassets/img/unsprited/placeholder.png

Vorhersage: Einbruch, Raub, Randale. Mit modernen Algorithmen will die Polizei die Wahrscheinlichkeit von Verbrechen in der Zukunft berechnen. Das wirft ethische Fragen und Datenschutzprobleme auf.

360° - Die Reihe auf SZ.de erzählt Geschichten, die im Nachrichtenalltag oft untergehen, und nähert sich ihnen aus verschiedenen Blickwinkeln.

Gibt es problematische Entwicklungen im Ausland, wo vorhersagende Polizeitechniken schon verstärkt eingesetzt werden?

Wir wissen, dass solche Analysesoftware immer aufgebohrt werden kann und auch aufgebohrt wird. Es ist also gar nicht klar, ob auch künftig nur statistische Daten verarbeitet werden. Anwendungen, die jetzt schon in den USA im Einsatz sind, lesen zum Beispiel auch Daten vom Wetterdienst oder die Zahltage aus, an denen Menschen ihren Lohn bekommen. Klingt erst einmal unproblematisch, aber: Dazu können auch Geodaten kommen - Informationen, wo sich eine Person mit ihrem digitalen Gerät aufhält, die teilweise öffentlich verfügbar sind. Zum Beispiel wenn jemand auf Twitter vergisst, die Ortungsfunktion auszuschalten und damit ein Geotag setzt, wenn er eine Nachricht veröffentlicht.

Was könnte denn in der Zukunft so ein Szenario aussehen?

Nehmen wir an, ich besuche ein Fußballspiel und die Polizei geht davon aus, dass zwei risikobelastete Vereine aufeinander treffen und Stress zwischen Fans entstehen könnte: Die predictive-policing-Software zeigt der Polizei die Geodaten meiner Tweets automatisiert an, und ich gerate ins Raster. Wenn ich dann noch Tweets mit Hashtags von Mannschaften benutze, deren Fans sowieso von Polizeien beargwöhnt werden, werde ich als Teil einer möglicherweise gewalttätigen Meute gesehen. Bundespolizei und Bundeskriminalamt forschen daran, entsprechende Inhalte von Kurznachrichten zu analysieren.

Verbrechen verhindern mit Big Data - wie weit darf die Polizei gehen?

"Predictive policing" heißt Polizeiarbeit, die Verbrechen durch den Einsatz spezieller Software vorhersagen soll. Was meinen Sie, sinnvolle Ermittlungsarbeit oder ein weiterer Schritt zur Überwachung der Bürger? Diskutieren Sie mit uns. mehr... Ihr Forum

Wie sollten diese Technologien reguliert werden?

Ich persönlich finde: Computergestützte Strafverfolgung verbietet sich, wenn sie Vorhersagen treffen will. Im Sinne des Datenschutzes wäre es außerdem, wenn der Quellcode der Software öffentlich bekannt wäre. Das hat sich ja auch bei der Debatte über den Bundestrojaner gezeigt. Das BKA musste schließlich zugeben: Stimmt, wir müssen genau wissen, was die Software macht, ob die Daten zum Beispiel über die USA ausgeleitet werden. Im Fall von Vorhersagesoftware weiß der Endanwender - der Polizist am Rechner - nicht, welche Daten nach welchem Algorithmus analysiert und dann angezeigt werden. Er hält die Ergebnisse einfach für wahr. So wie wir alle, wenn wir Google nutzen, die Rangfolge der Suchergebnisse für die Wahrheit halten. Dabei steckt dahinter ja ein bestimmter Algorithmus mit bestimmten Logiken. Und der müsste bei jeder polizeilichen Analysesoftware öffentlich und nachprüfbar sein.

Muss das im Gesetz stehen?

Die Frage ist, ob bestimmte Formen von predictive policing überhaupt gesetzlich in Ordnung sind. Der Abgleich von Daten ist grundsätzlich erlaubt, zur Gefahrenabwehr aber gibt es enge Grenzen. Bei der Anti-Terrordatei und der Rechtsextremismusdatei haben Richter die Art der Errichtung der Datei für rechtswidrig erklärt. In dem Fall wurde versucht, verschiedene Datenquellen miteinander zu verknüpfen. Das ist das Geheimnis des Data Mining: Es schafft neue Informationen aus verschiedenen Quellen. Das darf die Polizei aber nicht ohne richterliche Anordnung, schon gar nicht bei Informationen über Personen.