Gesichtserkennung:Die Technik lernt, mit Masken umzugehen

Lesezeit: 3 Min.

Die NIST-Forscher experimentierten mit verschiedenen - virtuellen - Masken-Größen und- Formen. (Foto: National Institute of Standards and Technology)

Als alle plötzlich Mund-Nasen-Schutz trugen, scheiterten die Algorithmen an den halb verdeckten Gesichtern. Doch die Branche schaut jetzt stärker auf die Augen.

Von Jannis Brühl

Das Gesicht ist heutzutage auch ein Schlüssel, Sicherheitsschleusen an Flughäfen und Bürokomplexen öffnen sich automatisch, wenn ihnen das richtige präsentiert wird. Spezielle Algorithmen haben aufgrund der Unmengen von Fotos gelernt, Gesichter miteinander abzugleichen. Mit Ausbreitung von Covid-19 musste die boomende Branche der Gesichtserkennungs-Technik allerdings selbst dazulernen. Denn schlagartig trugen sehr viele Menschen Schutzmasken, an denen die Algorithmen zunächst scheiterten.

Wer staatlicher und kommerzieller Überwachung misstraut, freute sich über diesen Nebeneffekt der Pandemie. Nun zeigt eine Untersuchung der US-Behörde National Institute of Standards and Technology (NIST), die zum amerikanischen Handelsministerium gehört: Viele Algorithmen haben dazugelernt und erkennen Gesichter mit Masken viel besser als zu Beginn der Pandemie.

SZ PlusDigitalisierung
:Fürchtet euch nicht

Dient die Maschine dem Menschen, oder ist es eher andersrum? Gespräche im virtuellen Raum über künstliche Intelligenz, die Macht der Daten und über Computer, die Tote singen lassen.

Von Andrian Kreye

Die Experten untersuchten 152 Algorithmen, die von traditionsreichen Universitäten wie der der portugiesischen Stadt Coimbra, Tech-Unternehmen wie Acer aus Taiwan oder dem chinesischen KI-Konzern Sensetime entwickelt worden sind. 65 dieser Algorithmen waren den NIST-Prüfern erst nach Mitte März dieses Jahres zugänglich gemacht worden, also nachdem die Pandemie voll ausgebrochen war. Der sogenannte FRV-Test gilt als Goldstandard, wenn es darum geht, die Genauigkeit von Gesichtserkennungs-Systemen zu bewerten. Seit 2000 entwickelt ihn das NIST ständig weiter.

Um herauszufinden, wie gut ein Algorithmus funktioniert, ließen die Prüfer ihn Fotos aus zwei Datensätzen vergleichen: Der eine bestand aus gut ausgeleuchteten Porträtfotos, der andere aus Webcam-Fotos, geknipst unter Zeitdruck, wie sie an Grenzposten oder Sicherheitsschleusen gemacht werden. Sie wurden im Computer mit dem Zusatz "Wild" gekennzeichnet.

Dann wurden entweder beide oder ausschließlich die "wilden" Bilder mit Covid-19-Masken bedeckt - zumindest virtuell. Um den Aufwand gering zu halten, wurden die Masken per Computer hinzugefügt. Den Autoren ist klar, dass dies die Aussagekraft ihrer Untersuchung schmälert: Weder konnten sie herausfinden, wie sich Masken in realistischen Situationen auswirken - etwa wenn sie schräg im Gesicht sitzen -, noch hatten ihre simulierten einfarbigen Masken Muster. Insgesamt nahmen sich die Tester 6,2 Millionen Fotos vor.

Die Augen geraten in den Fokus

Das Ergebnis zeigt trotz aller Einschränkungen rasante Fortschritte bei der Erkennung maskierter Menschen: Die Algorithmen, die seit Mitte März eingereicht wurden, wiesen im Median ein Viertel weniger Fotos zu Unrecht ab als ihre Vorgänger aus dem Zeitraum vor der Pandemie. Sie erkannten also trotz Masken wesentlich öfter, dass zwei Gesichter zusammengehören. In der Ende Juli veröffentlichten NIST-Untersuchung lagen die Fehlerraten noch bei bis zu 50 Prozent, nun sind es nur noch bis zu 40 Prozent. Vor allem aber fiel bei einigen Algorithmen die sogenannte Falsch-Zurückweisungsrate um das Zehnfache. Sie zeigt, wie oft richtige Personen nicht erkannt wurden. Das deutet darauf hin, dass gezielt an der Erkennung Maskierter gearbeitet worden ist.

Ein Grund, warum die neuen Algorithmen besser abschneiden, ist offenbar, dass die Entwickler sie verstärkt auf die Analyse der Augenregion trainiert haben. "Die Ergebnisse der jüngsten Algorithmen zeigen, dass bei Fokussierung auf den periokularen Bereich auch wieder die Erkennungsleistung gesteigert werden kann", sagt Christoph Busch. Er ist Informatikprofessor an der Hochschule Darmstadt und berät das Bundesamt für Sicherheit in der Informationstechnik zum Thema Biometrie.

Auch wenn die Algorithmen dazugelernt haben, heißt das nicht, dass sie maskierte Menschen schon genauso gut erkennen wie unmaskierte. Die Falsch-Zurückweisungsrate für Maskierte liegt insgesamt immer noch deutlich höher als für Unmaskierte - 2,4 bis 5 Prozent statt 0,3 bis 0,5 Prozent. Die NIST-Experten formulieren es so: Die Erkennung Maskierter ist auf dem Stand, auf dem die Erkennung Unmaskierter 2017 war.

Besonders viele falsche Treffer gab es, wenn sowohl das "wilde" Bild als auch das gut ausgeleuchtete virtuell maskiert worden waren. Das bedeutet: Wer sein Smartphone per Gesichtserkennung entsperrt und in der Anwendung ein maskiertes Bild hinterlegt, macht das Gerät anfälliger dafür, von einem Unbefugten gekapert zu werden. Mit einer Maske hat der dann eine höhere Chance, das System auszutricksen.

Ausgehend von den NIST-Erkenntnissen müssten Forscher nun herausfinden, wie sie die Genauigkeit der Systeme weiter steigern könnten, schreibt Isabelle Moeller vom Biometrics Institute, einem Zusammenschluss von Behörden und Unternehmen, die mit Gesichtserkennung arbeiten. Dabei könnten ihr zufolge höhere Bildauflösung, 3-D-Erkennungstechnik oder Infrarot helfen.

Schwarze und rote Masken verwirren die Technik mehr als weiße und blaue

Staatliche Stellen setzen Gesichtserkennung an Grenzen und Flughäfen, in Fahndungsdatenbanken oder beim Bearbeiten von Visa-Bewerbungen ein. Gegner der Technik sehen die Privatsphäre in Gefahr. Sie warnen, staatliche und kommerzielle Überwacher könnten Menschen irgendwann überall aufspüren. Die derzeitigen Systeme werden auch kritisiert, weil sie oft falschen Alarm auslösen. Besonders häufig geschieht das Angehörigen ethnischer Minderheiten - die in vielen Staaten ohnehin überproportional von Polizeikontrollen betroffen sind. Viele Algorithmen sind an Datensätzen trainiert, die vor allem aus Fotos weißer Menschen bestehen.

Nach der Lektüre der NIST-Studie gab Kurt Opsahl von der Bürgerrechtsorganisation Electronic Frontier Foundation jenen, die sich vor Überwachung fürchten, einen Tipp: Je größer die Maske, desto höher die Fehlerrate des Algorithmus. Und: Rote und schwarze Masken provozierten mehr Fehler bei der Erkennung als weiße oder blaue. Warum, wissen die Wissenschaftler noch nicht. Ein weiteres Problem, auf das sich die Entwickler der Algorithmen nun stürzen dürften.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Pilotversuch
:Münchner Flughafen führt biometrische Kontrollen ein

Damit können Vielflieger bei der Lufthansa einfacher in den Sicherheitsbereich kommen. Langfristig soll die Technologie auf weitere Flughäfen und Fluglinien ausgeweitet werden.

Von Dominik Hutter

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: