Software für Videokameras Wie Überwachung "intelligent" werden soll

Weltweit überwachen Millionen Kameras das Verhalten von Bürgern. Weil das viele Bildmaterial nicht mehr von Menschen zu bewältigen ist, soll nun Software verdächtige Szenen erkennen. Das ist ein Traum für Sicherheitsbehörden - und ein Albtraum für Datenschützer.

Von Christoph Behrens

Die US-Firma BRS Labs ist ein Senkrechtstarter, den kaum jemand kennt und am besten auch niemand kennen soll. Der Umsatz hat sich innerhalb eines Jahres auf 200 Millionen Dollar verzehnfacht. Neue Büros wurden in Houston, São Paulo und London eröffnet. Die Technik der Firma wird bereits in San Francisco eingesetzt und bis nach Dubai exportiert. Der Grund für den Erfolg von BRS - eine Abkürzung von Behavioral Recognition Systems, zu deutsch etwa Systeme zur Verhaltenserkennung - ist eine Überwachungs-Software namens AiSight.

Sie revolutioniert derzeit weltweit die Überwachung an Flughäfen und Bahnhöfen, denn AiSight macht Kameras schlau: Mit dem Programm ausgestattet, lernen die Videospäher auffälliges Verhalten zu erkennen. Egal ob jemand einen Koffer abstellt, wo er nicht sollte, aus dem Auto aussteigt, wo er nicht dürfte oder über Zäune klettert - sofort schlägt der Computer Alarm. Ein Mensch ist nicht mehr nötig, um die per Kamera erfassten Tätigkeiten anderer Menschen zu beurteilen - ein Traum für Sicherheitsbehörden.

Der Rechnung dahinter ist einfach. Weltweit gibt es Schätzungen von BRS Labs zufolge 50 Millionen Überwachungskameras. Allein in Großbritannien erfassen sie jeden Bürger durchschnittlich 300 Mal am Tag. Doch die Bilder enden meist im Nichts. Es gibt einfach nicht genug Personal, um all das Videomaterial, ob live oder nicht, aufmerksam anzusehen und zu bewerten. Eine Maschine hingegen ist niemals abgelenkt, immer aufmerksam, braucht keine Kaffeepause. Die Idee der "intelligenten Überwachungskamera" stößt auf eine riesige Marktlücke.

Europäische Sicherheitsexperten möchten in diesem Geschäft gerne dabei sein. Mit mehr als 21 Millionen Euro fördert allein das deutsche Forschungsministerium (BMBF) neun Projekte zur "Mustererkennung". Seit drei Jahren versuchen deutsche Forscher, Computern beizubringen, wie man aus Gesichtern liest, Waffen erkennt oder auffällige Bewegungen registriert.

Gefahrensituationen in U-Bahnhöfen

Ergebnisse lassen allerdings auf sich warten. So zum Beispiel bei dem Projekt namens Adis: Hier soll ein Algorithmus Gefahrensituationen in U-Bahnhöfen aufspüren, etwa eine "liegende Person", Menschenansammlungen, "Aggression" oder allgemein "auffälliges Verhalten", wie Projektkoordinator Oliver Röbke von der Münchner Indanet AG erklärt. "Ursprünglich wollten wir das System im öffentlichen Nahverkehr testen", sagt Röbke, der Verkehrsbetrieb einer großen Stadt wollte mitmachen. Wegen ethischer und datenschutzrechtlicher Fragen begleiteten Fachmedien wie Heise online sowie einzelne Bundestagsabgeordnete das Projekt aber von Anfang an skeptisch. Kritische Nachfragen erschwerten die Arbeit. Plötzlich wollte der Betreiber anonym bleiben, getestet wurde nur noch hinter verschlossener Tür. Den angedachten Demonstrator gibt es bis heute nicht, drei Monate vor Ablauf des Projekts. Ein Praxistest? Fehlanzeige.

Die amerikanische Variante von BRS ist seit drei Jahren mit dem patentgeschützten Produkt AiSight auf dem Markt. Anders als die deutschen Ingenieure setzen die Amerikaner nicht auf feste Regeln, die mühsam für jede Kamera programmiert werden müssen. AiSight ist selbstlernend aufgebaut, ähnlich wie ein neuronales Netz kann es Erfahrungen sammeln und lernen, was in welcher Situation als normal gilt und was nicht - zum Beispiel welche Tür Passanten nicht betreten dürfen.

"Wir erlauben dem Computer, zu sehen, zu lernen, und letztlich auch zu denken", schwärmt die Firma in einem Video. "Wenn ein System im laufenden Betrieb selbst dazu lernt, dann habe ich das als Techniker nicht mehr im Griff", kritisiert dagegen Adis-Projektleiter Zaharya Menevidis vom Fraunhofer Institut für Produktionsanlagen. "Die Kontrolle könnte dabei entgleiten, das ist kein Fortschritt." BRS-Ingenieure sehen das anders. Die auf festen Regeln basierenden Systeme der Europäer bezeichnen die Amerikaner abfällig als "veraltet".

"Europa hinkt bei Sicherheitstechnologien hinterher", sagt Ben Hayes, der für die Organisation Statewatch den Sicherheitssektor beobachtet. Auch wachsen in Deutschland die Zweifel, ob die hohen Erwartungen überhaupt erfüllt werden können. "Die Verlässlichkeit präventiver Überwachung ist fragwürdig", kritisieren Forscher vom Institut für Rechts- und Kriminalsoziologie in Wien. Umwelteinflüsse und wechselnde Lichtverhältnisse könnten die Ergebnisse verfälschen.

Dazu entstünden "unakzeptabel viele falsche Treffer", was wieder Kosten für deren Überprüfung verursache. Ähnliche Erfahrungen hatte 2007 das BKA gemacht, das am Mainzer Hauptbahnhof Technik installiert hatte, um Gesichter automatisch zu erkennen. Der Feldversuch schlug fehl - es war meist schlicht zu dunkel, um einzelne Personen zu identifizieren. "Das Geld wäre viel sinnvoller in Baumaßnahmen aufgehoben", kritisiert deshalb Stephan Urbach von der Piratenpartei: "Hellere U-Bahnhöfe, dadurch wird es sicherer."

Doch um Sicherheit geht es bei dem Thema intelligente Überwachung nur scheinbar. Viel verlockender sind die finanziellen Aussichten in diesem Technologiesektor. Marktforscher von Homeland Security Research prophezeien bis 2016 eine Vervierfachung des globalen Markts für intelligente Überwachung. Wohl mit ein Grund, warum das BMBF das Mustererkennungs-Programm ausdrücklich zur Wirtschaftsförderung zählt: Deutsche Firmen sollen "von diesem boomenden Markt profitieren können".

Auch die EU möchte mit intelligenter Überwachung aufrüsten, zum Beispiel an den Außengrenzen. Mindestens 60 Millionen Euro flossen in den vergangenen Jahren in "intelligente", also automatisierte Grenz-Überwachung unter dem Stichwort "Smart Borders". So erwägt die EU-Kommission den Aufbau einer autonomen Drohnen-Flotte für den Grenzschutz (Projekttitel Oparus und Wimaas). Gleichzeitig wurden Roboter entwickelt, die entlang der Grenzen patrouillieren und Eindringlinge aufspüren sollen (Projekt Talos). Spezielle Sensoren sollten im Auftrag der Grenzschützer sogar Gerüche mutmaßlich illegaler Migranten aufspüren.

Teure Fehlschläge

All diese Ideen seien lediglich Forschungsprojekte, betont die EU-Kommission. Tatsächlich produzierte das Programm bislang vor allem teure Fehlschläge und wenig Konkretes. So gab die Kommission 3,5 Millionen Euro im Verbundprojekt Amass für intelligente Meeres-Bojen aus. Diese sollten vor der Küste Europas mit allerlei Sensoren bestückt "nicht-kooperative Ziele" entdecken können - gemeint sind Flüchtlingsboote aus Afrika mit illegalen Einwanderern an Bord. "Ein wesentlicher Teil der Technik wurde zerstört", sagt ein Verantwortlicher, der anonym bleiben möchte. "Die Boje ist vor den Kanaren aufgrund der Wetterbedingungen gesunken." Auf der Webseite heißt es hingegen, das Programm sei planmäßig beendet worden.

Auch beim abgeschlossenen Drohnen-Projekt Wimaas - Gesamtkosten 2,7 Millionen Euro - sind öffentlich keinerlei Ergebnisse vermerkt. Auf Nachfrage heißt es, es habe im Wesentlichen zwei Testflüge mit Drohnen vor der Küste Spaniens und Griechenlands gegeben, außerdem seien einige technische Publikationen entstanden. Im Fall des Roboterprojekts Talos hingegen gab es wohl zwei funktionstüchtige Prototypen, traktorgroße Roboter, die selbstständig an Grenzen patrouillieren und mit Radar Menschen aufspüren. Das 20 Millionen Euro teure Programm ist jedoch seit einem Jahr beendet, die Roboter stehen seither ungenutzt in Polen herum.

Unabhängig von den wirtschaftlichen Aussichten stehen natürlich auch grundsätzliche Bedenken im Raum. "Mustererkennung ist hochsensibel und heikel, weil der analoge Bereich mit dem digitalen verheiratet wird", sagt Thilo Weichert, der Datenschutzbeauftrage Schleswig-Holsteins. Am Ende dürfe nicht eine Maschine über eine Situation entscheiden, sondern nur ein Mensch. Auch müsse der "Beifang" bei der Mustererkennung - also unbeteiligte Dritte - wieder aus den Datenbanken gelöscht werden. "Bei vielen Sicherheitsforschungsprojekten besteht diese Sensibilität aber nicht", sagt Weichert.

"Woher kommen die Kriterien für die Mustererkennung?" fragt Regina Ammicht Quinn vom Internationalen Zentrum für Ethik in den Wissenschaften in Tübingen. "Stammen diese von Experten, besteht die Gefahr, dass hier eine bestimmte Weltanschauung ins System einprogrammiert wird." Würden die Kriterien dagegen statistisch bestimmt, könne das statistisch normale, also häufigste Verhalten zugleich zum "gewünschten" Verhalten werden - zu dem von der Maschine gewünschten Verhalten.

Anmerkung der Redaktion: In einer ersten Version des Artikels hatten wir geschrieben, es gebe Schätzungen zufolge weltweit 15 Millionen Überwachungskameras. Tatsächlich sind es 50 Millionen. Wir bitten, diesen Fehler zu entschuldigen.