Informatik Kamera aus!

Aus Millionen Bildern der Stadt haben Informatiker ein 3-D-Modell von Zürich erstellt - und Individuen wie auch Autos unkenntlich gemacht. Visualisation: ETH Zurich via the ERC VarCity project, Dr. Hayko Riemenschneider

(Foto: )

Fotos und Videos geben mehr Informationen preis, als sich viele Menschen vorstellen können. Ob fotografiert oder gefilmt werden darf, soll künftig die Technik automatisch erkennen.

Von Eva Wolfangel

Das System zählt 35 Gäste im Restaurant Zunfthaus zur Waag im historischen Zentrum Zürichs, weitere 24 Personen speisen draußen unter den Sonnenschirmen. Auch eine ungewöhnlich große Gruppe wird sofort registriert. Im Gebäude befinden sich aktuell acht Bewohner, der erste hat es heute um 6.45 Uhr verlassen, normalerweise kehren die letzten gegen 23 Uhr zurück.

Am benachbarten Paradeplatz sammeln sich auffallend viele Menschen. Vielleicht sollte man dort eine Polizeistreife vorbeischicken, nur sicherheitshalber, und vielleicht sollte man der Mutter des Kindes, das sein Zimmer im vierten Stock zur Sonnenseite hat, zu einer Verdunkelung raten, der Raum heizt sich um diese Zeit stark auf, da das Fenster mit seiner Größe von 2,2 mal 1,5 Meter viel Sonne hereinlässt.

Solche oder ähnliche Informationen über Zürich sind längst verfügbar, geliefert von selbstlernenden Algorithmen, automatischer Bilderkennung und Millionen Fotos der Stadt. Ein riesiger Datenschatz. Forscher der ETH Zürich haben ihn nun gehoben und können all die erwähnten Informationen aus den Daten extrahieren - und noch viel mehr. Allein der Münsterhof mit dem Zunfthaus und das Fraumünster wurden Tausende Male von Touristen aus allen Blickwinkeln fotografiert, und auf öffentlich verfügbaren Foto-Plattformen und in sozialen Netzwerken veröffentlicht.

In den vergangenen fünf Jahren hat das Team um Hayko Riemenschneider vom Computer Vision Lab der ETH Zürich Millionen Fotos und Videos seiner Heimatstadt gesammelt - darunter sowohl die der Touristen als auch jene von öffentlichen Webcams und anderen Kameras, um daraus ein Modell der Stadt zu erzeugen. Das sogenannte Varcity-Modell ist viel mehr als eine dreidimensionale Abbildung, wie man sie von Architekten kennt. Aus den Daten geht so ziemlich alles hervor, was das Leben in einer Stadt ausmacht. Welche Funktion hat ein Gebäude, wie viele Personen betreten es im Schnitt täglich, wo sammeln sich gerade Menschen? Projekte wie Varcity machen vor allem klar, wie wichtig Bilder und Filme für die künstliche Intelligenz sind, die uns in Zukunft so viel Arbeit abnehmen soll. Wozu noch Streifenpolizisten auf die Straße schicken, wozu Versicherungsgutachter die Schäden an einer Fassade begutachten lassen, wenn intelligente Algorithmen das auch können? Die Vorausberechnung von Verkehrsflüssen kann zum Beispiel helfen, Ampelschaltungen in Echtzeit anzupassen - damit kein Stau entsteht. Gleichzeitig lösen solche Projekte Bedenken rund um die Privatsphäre aus: Die Menschen auf den Filmen und Fotos, ihre Gewohnheiten könnten ausgespäht, im schlimmsten Fall sogar kontrolliert werden. Die Daten und vor allem auch deren Verknüpfung könnten Informationen über Einzelne preisgeben, über deren politische Interessen, deren Kaufverhalten, deren Haushaltsbudget - je nachdem, welche Veranstaltungen, welche Läden sie wann besuchen. Um das zu verhindern, haben Riemenschneider und Kollegen ihr System von Anfang an so entwickelt, dass keinerlei Fotos oder Videos an die Öffentlichkeit gelangen. Stattdessen werden diese Daten von Computerprogrammen direkt in ein Modell umgerechnet. Erst das wird dann für die Stadtplanung und andere Zwecke verwendet. "Privacy by design" nennt sich das neue Konzept, es ist aktuell eines der großen Themen der Informatik.

Wozu Streifenpolizisten auf gut Glück auf die Straße schicken, wenn das auch intelligente Lernalgorithmen können?

Anders als bei Google Street View, wo Menschen und Häuser auf Wunsch nachträglich gepixelt werden, kommen ins Endprodukt keine Informationen, die einzelne Menschen identifizieren könnten. "So kann es nicht geschehen, dass wir beispielsweise eine Person übersehen und vergessen zu pixeln", sagt Riemenschneider. Lediglich die Anzahl an Personen an bestimmten Orten ist daraus abzulesen. Gleiches gilt für Fahrzeuge: Anstatt Fotos von Autos zu verwenden und das Kennzeichen zu pixeln, erscheinen die Wägen als modellierte Fahrzeuge, eine Art Avatar ihrer selbst.

Vergleichbare Projekte beschränkten sich bislang auf das Modellieren einzelner Details, zum Beispiel Häuser. "Das Einzigartige an unserem Projekt ist, dass wir eine ganze Stadt allein anhand von Bilddaten modelliert haben", sagt Riemenschneider. Und nicht nur das: Erste Studien mit dem Modell zeigen, wie gut die künstliche Intelligenz die Perspektive der Menschen bereits verstanden hat: So ließen die Forscher ihr System eine Stadtführung entwickeln, die alle wichtigen Sehenswürdigkeiten abdeckt. Sie machten dabei keinerlei Vorgaben, welche Gebäude beinhaltet sein müssten. Die künstliche Intelligenz lernte allein aus den zugrunde liegenden Bildern, wie Menschen die Gebäude nutzen, wie oft die Gebäude fotografiert und wo die Bilder geteilt wurden. Auch architektonische Auffälligkeiten registrierte das System.

Es liefert Unmengen an Informationen, ganz ohne Ortstermin. Genau das macht selbst diese Algorithmen aus anonymen Daten gefährlich. "Was ist, wenn plötzlich Not am Mann ist, eine Großfahndung?", fragt Privacy-Experte Marc Langheinrich von der Universität Lugano. Kann man dann die Software so umschreiben, dass die einzelnen Menschen doch erkennbar sind? "Sobald man solche Geräte aus der Ferne warten kann, ist es auch möglich, eine andere Software aufspielen", sagt der Informatiker.

Das heißt auch: sobald sich die öffentliche Meinung oder die politische Lage ändert, kann der Schutz der Privatsphäre schnell nebensächlich werden. Langheinrich hat immer wieder beobachtet, wie neue Technologien bald Begehrlichkeiten wecken: "Man möchte dann eben doch wissen, wie sich einzelne Menschen durch die Stadt bewegen und deren Wege verfolgen." Auch das sei zwar anonymisiert möglich, aber jeder einzelne Mensch müsse dafür eine eindeutige Kennung haben. Je mehr Informationen vorhanden sind, umso schwieriger ist es, die Anonymität aufrechtzuerhalten. Durch Korrelationen der Daten untereinander kann oft letztlich doch auf einzelne Menschen geschlossen werden. Und selbst wenn hierzu heute noch der Schlüssel fehlt, gelte das nicht zwangsläufig für die Zukunft. Schließlich wächst der Berg an Daten unablässig, den unser Alltag erzeugt.

"Sicher ist nichts heutzutage", sagt Langheinrich. Angesichts der gefühlt zunehmenden Terrorgefahr finden jene Stimmen seltener Gehör, die auf die Bedeutung der Privatsphäre hinweisen. Eine von ihnen ist die von Jürgen Taeger, ein wohl überlegter Mahner, der stets abwägt. Er ist nicht per se gegen Videoüberwachung. Zuletzt hat der Professor für Rechtswissenschaft von der Uni Oldenburg einige Feldversuche begleitet, in denen Polizisten und Wachdienste mit Bodycams ausgerüstet wurden: Sie trugen Kameras an ihren Uniformen, die ihr Gegenüber filmten. "Wichtig ist dabei, dass gut sichtbar auf die Kameras hingewiesen wird und sie nur im Ernstfall und erst nach mehrmaliger Ankündigung wirklich eingeschaltet werden", sagt er. Dann seien sie ein gutes Mittel zu Deeskalation - und zwar wegen einer privatsphärenfreundlichen Einstellung: Ein nach vorn gerichteter Monitor zeigt das aufgenommene Bild, damit die Betroffenen sehen können, was gefilmt wird. "Allein das führt zu einer Deeskalation", sagt Taeger. Störer geben dann meistens Ruhe, vermutlich weil ihnen das System einen Spiegel vorhält.

Problematisch hingegen seien Versuche wie jener am Berliner Südkreuz, wo mit Pendlern die Gesichtserkennung erprobt wird: Die Kameras sollen freiwillige Probanden anhand ihrer hinterlegten biometrischen Fotos aufspüren. Die Idee ist, Passanten künftig automatisch mit Fahndungsdatenbanken abzugleichen. "Wenn solche Kameras flächendeckend verbreitet sind, ist es theoretisch möglich, ein Bewegungsprofil aller Deutschen zu erstellen." Das ist vor allem in Kombination mit dem kürzlich geänderten Personalausweisgesetz bedenklich: Polizisten dürfen jetzt im Verdachtsfall auf die Bilddaten der Ausweise zugreifen.

Ein gewalttätiger Vater hatte sein Kind aufgespürt, mit Hilfe automatischer Gesichtserkennung und Fotos in sozialen Netzwerken

Noch sind die enormen Datenmengen kaum zu verarbeiten. Doch die Technik wird besser, und die Zahl der Kameras wächst. Immer mehr Drohnen sind damit ausgestattet, filmen oder fotografieren aus der Luft, berichtet Marit Hansen, Datenschutzbeauftragte von Schleswig-Holstein. "Manche Drohnen sind fast so klein wie Insekten und können in Räumen navigieren", sagt sie. "Da kommt eine ganz andere Welt auf uns zu." Eine Welt, in der Anonymität Geschichte sein könnte. Die Algorithmen seien heute schon vorhanden, man könne sich nicht mehr darauf verlassen, dass man anonym bleiben kann, sagt Hansen. So habe kürzlich ein gewalttätiger Vater sein Kind aufgespürt, mithilfe automatischer Gesichtserkennung und Fotos in sozialen Netzwerken. Das Kind war mit seiner Mutter anonym in ein anderes Bundesland gezogen.

Angesichts der Begehrlichkeiten, die Daten hervorrufen, empfiehlt Privacy-Experte Langheinrich, dass manche Informationen gar nicht erst gewonnen werden sollten. So gibt es Konzepte von Kameras, die mit einer Datenbank verbunden sind, in der jeder Nutzer eine Art Foto-Freigabe hinterlegt: Wer darf mich fotografieren? An welchen Orten? Dank Gesichtserkennung "wissen" diese smarten Kameras, wen sie vor sich haben. Ist der Betreffende nicht in der Datenbank hinterlegt oder gibt es einen Sperrvermerk, wird sein Gesicht unmittelbar verpixelt.

Wie genau die Privatsphäre bereits im Design technischer Geräte verankert werden kann, hat die Medieninformatikerin Susanne Boll gemeinsam mit ihrer Kollegin Marion Koelle an der Uni Oldenburg in einem interdisziplinären Projekt erarbeitet. "Wir müssen als Gesellschaft entscheiden, welche Konventionen wir haben wollen", sagt sie. Eine zentrale Erkenntnis ihrer Forschung: Transparenz ist wichtig. Selbst Träger sogenannter Lifelogging-Kameras, die wie die Bodycams der Polizei Bilder nach vorne machen, wollen ihre Geräte nicht verstecken. Die Forscherinnen haben zum Beispiel eine Kamera konzipiert, die mit Lichtsignalen anzeigt, welchen Bereich sie gerade filmt.

Ähnlich könnte es mit privaten Kameras funktionieren, wenn es eine allgemein anerkannte Form der Kommunikation über Geräte gibt: Nutzer könnten einen QR-Code oder einen optischen Marker tragen oder auch per Funk oder Infrarotsignal allen Geräten in der Nähe signalisieren, dass sie nicht aufgenommen werden wollen. "Wer nicht fotografiert werden will, ist bislang stets in der Not, seine Interessen durchzusetzen", sagt der Rechtswissenschaftler Taeger.

Das Oldenburger Forschungsprojekt erkundet eine weitere Methode automatisierter Zurückhaltung: Kameras, die dank künstlicher Intelligenz erkennen, ob es sich um eine private Situation handelt, anhand der Art der Interaktion der Menschen. Die Geräte schalten sich dann selbständig aus. "Eine solche Kamera könnte sich deutlich sichtbar verschließen - als Signal an das Gegenüber: Ich sehe, das hier ist privat", sagt Boll. Oder Kameras, die per Funk beim Smartphone des Gegenübers abfragen, ob gefilmt werden darf. Und die nur dann eine Freigabe bekommen, wenn die entsprechende Option aktiviert ist.

Konzepte gibt es viele, und die Technik ist für die meisten Ideen bereits ausgereift. Dennoch hat es kaum etwas davon in die Praxis geschafft. Bislang sei der Anreiz zu gering, sagt die Datenschutzbeauftragte Hansen. "Man kam ja auch mit etwas Schlechterem durch."

Wobei sich die Datenanalysten stets auch fragen sollten, welche Informationen wirklich wichtig seien, rät Marc Langheinrich. Als vor zwei Jahren in Kalifornien die Erde bebte, konnte man anhand der vielen tragbaren Fitnesstracker genau verfolgen, wie lange die Menschen in den betroffenen Gebieten nachts wach lagen. Faszinierend. Doch Langheinreich ist skeptisch: "Wozu brauchen wir das?" Manchmal kann weniger auch mehr sein.