Sein Name klingt wie der eines Kreuzfahrtschiffkapitäns, den Drehbuchschreiber des öffentlich-rechtlichen Rundfunks ersonnen haben: André Ferreira. Doch der Mann schippert nicht, er forscht. Er leitet eine Studiengruppe am Center for Functional and Evolutionary Ecology (CEFE) in Montpellier. Unter anderem will Ferreira wissen, was Vögel den ganzen Tag so treiben, vor allem Kohlmeisen, Siedelweber und Zebrafinken. Klar, sie fliegen, fressen, zwitschern und tirilieren, hängen auch oft einfach nur so rum - meist in Schwärmen. Das alles weiß André Ferreira natürlich. Ihn interessieren auch weniger die Bewegungen der Schwärme als die Aktivitäten der einzelnen Vogel-Individuen in den Schwärmen. Das ist aus verschiedenen Gründen tricky. Denn erstens halten sich oft viele Vögel in Verbünden auf, zweitens interessiert sich keiner von ihnen für die Interessen von Forschern mit klingenden Namen. Sie tun, was sie wollen, sind kaum kooperativ. Und drittens sehen sie alle ziemlich gleich aus.
Wissenschaftler, die sich bisher an Individualstudien zum Verhalten von Vögeln versucht haben, markierten die einzelnen Tiere mit Bändern, Ringen oder anderen Zeichen, um sie identifizieren zu können. Dazu musste man sie aber erst einmal haben, sprich: fangen. Was aufwendig ist und stressig, manchmal sogar tödlich für die Tiere. Verhaltensstudien von einzelnen Schwarmvögeln sind auf freier Wildbahn schwierig. Auftritt: André Ferreira.
Das KI-Programm erkannte Vogelindividuen in Schwärmen an ihrem Gefieder - gruselig
Er ließ eine künstliche Intelligenz (KI), einen Algorithmus für maschinelles Lernen, auf Bilder der Vögel los, damit sie Gefiedermuster und individuelle Merkmale darauf erkennt, die Menschen entgehen. Für die gerade in Methods in Ecology and Evolution der "Britischen Ökologischen Gesellschaft" veröffentlichte Studie mit dem fast poetischen Titel "Deep learning-based methods for individual recognition in small birds" trainierte das Ferreira-Team die KI mit Tausenden Bildern von Meisen, Webern und Finken. Anschließend erkannte das fit gemachte Programm die wilden Vogelindividuen auf den Schwarm-Bildern in mehr als 90 Prozent der Fälle an ihrem Gefieder, bei Zebrafinken lag die Quote mit 87 Prozent etwas darunter. Jetzt ist übrigens eine gute Gelegenheit, einmal nachzuschauen, wie Vertreter der Gattung Taeniopygia guttata, das ist der Zebrafink, aussehen, vor allem: die Männchen, um zu erfassen, wie unglaublich die Erkennungsleistung dieses Algorithmus ist. Und damit: wie gruselig, wenn man sie auf Menschen anwendet. Denn natürlich erkennen trainierte Intelligenzen auch die Gesichter menschlicher Individuen auf Bildern und in Aufzeichnungen von Menschenansammlungen.
Und darum findet Gesichtserkennung gerade immer größere Verbreitung im öffentlichen Raum. Garfield Benjamin, ein Autor des australisch-britischen Akademie-Journals The Conversation, hat sich im Frühjahr die Mühe gemacht, die Berichte über das Aufkommen von intelligenten Erkennungsanlagen im Vereinigten Königreich zu bündeln und systematisch auszuwerten: Demnach haben sich Flughäfen als Hotspots der Geräte, etwa bei der Passkontrolle und dem Zoll, etabliert, es gibt sie aber auch an den Gates, sie werden dort also von kommerziellen Unternehmen betrieben. Es wurden Gesichtserkennungsmaschinen in den Reklame-Screens am Piccadilly Circus in London gesichtet, ebenso in Manchester, Nottingham und Birmingham. Den Berichten nach wurde die Technologie hier dazu genutzt, Anzeigen "passend zum Alter, Geschlecht, aber auch zur Stimmung in den Gesichtern der Menge zu schalten". Sicherheitsgründe wurden angegeben, um das Betreiben solcher Anlagen in Shopping Malls, Museen und Stadien überall in Großbritannien zu begründen. Fußballspiele, Flugschauen, Konzerte, öffentliche Feste und sogar der Volkstrauertag sind auf der Insel zu intelligent massenüberwachten Veranstaltungen geworden.
Ein unmittelbarer Nutzen oder sofort evidenter Zweck außer der Steigerung des subjektiven Sicherheitsgefühls kann dafür nicht angegeben werden, auch wenn Polizei und Behörden eingeräumt haben, damit schon Kriminelle aufgespürt zu haben.
In einer Online-Diskussion zu Garfield Benjamins Recherche fragte ein Kommentator, was daran eigentlich so schlimm sei. Er etwa werde jeden Tag beim Brötchenholen von unzähligen Nachbarn erkannt, das sei ja dann auch anlasslose Überwachung. Außerdem konnte er von einem Fall berichten, bei dem man einen entlaufenen Hund dank der Aufzeichnungen von Überwachungskameras an öffentlichen Plätzen wiedergefunden habe. Und das sei eine gute Sache.
Benjamin erwiderte, dass Menschen immer Personen bleiben, wenn einzelne Menschen sie in einer konkreten Situation beobachten. Auch wenn gezielt nach jemandem gesucht wird, bleibe er oder sie das Subjekt dieser Suche. Doch hören wir auf, konkrete Personen zu sein, wenn wir anlasslos automatisiert massenüberwacht, identifiziert und durch Mustererkennung in Kontexte gebracht werden, die wir nicht mehr kontrollieren können. Schon deshalb nicht, weil dazu auch Datenströme aus unterschiedlichen Quellen kombiniert und untereinander abgeglichen werden.
"Wir werden dann zu bloßen Datenpunkten für den Algorithmus eines Computernetzwerks, wenn wir so identifiziert und gespeichert werden." Die KI entscheidet, für welchen Zweck sie relevant werden. Ihre Entscheidungswege bleiben dabei obskur, die Bezugsrahmen unbekannt. So werden Scheinevidenzen unseres Verhaltens und unserer Lebensweise konstruiert, von denen wir nicht einmal wissen, dass sie überhaupt konstruiert werden.
Für China, das sich längst durch seine unstoppbare Hemmungslosigkeit bei Entwicklung und Einsatz solcher Überwachungstechnologien auszeichnet, ist die Gesichtserkennung mittlerweile ein wesentlicher Baustein eines "Safe City"-Konzepts - und die Erkennung ist ein Exportschlager im Rahmen der Handels- und Infrastrukturvorhaben von Chinas "One Belt, One Road"-Initiative BRI.
Jede Bewegung in Zimbabwes Flughäfen, Bahnhöfen, Busstationen wird künftig von einer chinesischen Biometrie-Technologie ausgewertet
So installiert China seine KI-gestützte Überwachung schon in einigen Großstädten Pakistans, darunter Islamabad, Peshawar, Lahore, Quetta, Karachi und Gwadar. Aus Lahore konnte der in den USA und Europa misstrauisch beobachtete Telekommunikationsanbieter Huawei eine "Safe City" nach chinesischem Muster machen, in der 8000 Überwachungskameras installiert wurden, mit automatischer Gesichtserkennung, Verkehrsüberwachung mit Kennzeichenregistrierung und Abgleich der Daten zur individuellen Verfolgung im Portfolio. Dieses System wird betrieben aus einem 10 000 Quadratmeter großen Kommandozentrum heraus, das künstliche Intelligenz, Big Data und Cloud-Computing einsetzt, um lückenlos überwachen zu können. Solche Technologie aus China findet zunehmend auch in Afrika Verbreitung. "Cloud Walk", ein mit chinesischer Staatshilfe gefördertes Start-up aus Guangzhou, operiert nun in Simbabwe, um dort gleich ein nationales Gesichtserkennungsprogramm zu installieren. Jede Bewegung in Simbabwes Flughäfen, Bahnhöfen, Busstationen wird künftig von dieser chinesischen Biometrie-Technologie intelligent ausgewertet werden.
Doch ist jede Gesichtserkennung nur so austrainiert, wie es die Daten sind, mit denen man sie anlernt. "Cloud Walk" etwa war ursprünglich mit einem Set aus chinesischen Gesichtern trainiert worden, das in China gut, in Simbabwe jedoch fast gar nicht funktionierte. Ähnliche Probleme gewärtigen Gesichtserkennungssysteme gerade fast überall. Die weltweite Corona-Pandemie hat dafür gesorgt, dass die Algorithmen zur Gesichtserkennung nicht mehr so genau wissen, was ein Gesicht ist, seitdem wir alle Masken tragen. Sie geraten deshalb überall auf der Welt ins Straucheln und müssen nun dazulernen.
Den Maschinenlernprogrammen, die Gesichtserkennungs-Algorithmen erst intelligent machen, unterliegen Trainingsdaten von unzähligen menschlichen Gesichtern. Trainiert man das System nur auf Männer, erkennt es keine Frauen, entsprechend gilt dies für Ethnien. Die Datensätze, die man zum Training verwendet, müssen deshalb proportional gewichtet sein nach den Populationen, in denen die Erkennungssysteme eingesetzt werden. Darum hatte das chinesisch trainierte System schlechte Erkennungsraten, als es unangepasst auf die Bevölkerung Simbabwes angewandt wurde. Das kann man auch einen einprogrammierten strukturellen Rassismus nennen. Denn was ein Gesicht - und damit ein Mensch - überhaupt ist, bestimmt ja dann der Algorithmus.
Die Vermummung von Nase und Mund macht wesentliche Erkennungsmarken des Gesichts hinfällig
Gesichter, die in der Pandemie durch Schutzmasken verhüllt werden, tragen nun Erkennungsalgorithmen auf der ganzen Welt aus der Kurve, weil die Vermummung Nase und Mund und damit wesentliche Erkennungsmarken des Gesichts für die Systeme verbirgt. Sie werden dadurch nahezu nutzlos.
Das ist der Befund, den das US-Institut für Standards und Technologie (NIST) gerade in einer Studie veröffentlicht hat. Schwarze Masken senken das Erkennungsvermögen wesentlich stärker noch als weiße, grüne oder blaue Masken. Je mehr die Nase bedeckt ist, umso härter wird es für die Algorithmen. Zwischen 50 und 95 Prozent liege die Erkennungsrate dann nur noch. Das ist verglichen mit gewohnten Erkennungsstandards ein Fall ins Bodenlose. Bürgerrechts- und Privacy-Aktivisten sollten sich trotzdem nicht zu früh freuen. NIST stellte in seiner Studie fest, dass die schlechten Werte mit Maske nur daher rühren, dass die Algorithmen eben vor Corona mit Gesichtern ohne Maske trainiert worden sind. Alles werde zu üblichen Erkennungsraten zurückkehren, wenn die Algorithmen nachgeschult und maskenfit gemacht worden sind. Spätestens nach dem Sommer seien die Anpassungen erfolgt.
China ist da auch schon wieder weiter. Hanvon, ein Unternehmen mit Sitz in Peking, das - kaum verwunderlich - für die Regierung arbeitet, hat seine Netzwerke längst mit Maskenbildern gefüttert und kommt bereits wieder auf alte Identifikationsraten. Eingesetzt werden Geräte, die Fiebermessen mit Gesichtserkennung kombinieren. Praktisch. Die vielen neuen Trainingsbilder von Individuen mit Maske, die Hanvon nutzte, könnten übrigens auch von frei zugänglichen Social-Media-Plattformen wie Instagram genommen sein. Cnet berichtet, dass Masken-Selfies von dort gerade der letzte Schrei in Gesichtserkennerkreisen seien.
Dass die automatische Gesichtserkennung einmal wieder verschwindet, ist übrigens auch wegen dieser freiwilligen Bilder-Zulieferung von denjenigen, die danach damit überwacht werden, so unrealistisch wie die Anonymität von Zebrafinken.