Gesichtserkennung:Wie Covid-19-Masken Computer verwirren

Lesezeit: 3 min

Pendler am Zürcher Hauptbahnhof. Algorithmen zur Gesichtserkennung haben mitunter noch Probleme, Menschen hinter Mund-Nase-Masken zu erkennen, wie eine Studie zeigt. (Foto: Ennio Leanza/dpa)

Führende Software für Gesichtserkennung lässt sich von Masken täuschen. Ein echtes Problem für die Technologie ist das aber nicht.

Von Julian Rodemann

Dieser Tage übersieht man im Supermarkt schon mal einen Bekannten, weil das Gesicht hinter der Maske schwer zu erkennen ist. Computern geht es nicht anders: Programme für Gesichtserkennung haben mit den Mund-Nase-Bedeckungen gegen Covid-19 merklich Probleme, ihre Fehlerraten steigen aus dem Promillebereich auf fünf bis 50 Prozent. Das zeigt eine neue Studie des National Institute of Standards and Technology (NIST), einer US-Behörde, die für Technologiestandards zuständig ist.

Forscher um die Informatikerin Mei Ngan maskierten dafür mehr als sechs Millionen Gesichter virtuell, indem sie auf den Porträtaufnahmen bunte Flächen vor Mund und Nase einfügten. Knapp 90 führende Algorithmen zur Gesichtserkennung von Herstellern wie Asus oder Panasonic sollten dann die maskierten Fotos den entsprechenden unmaskierten Bildern zuordnen.

Schwarze Masken brachten die Algorithmen häufiger aus dem Konzept als blaue

Die besten Algorithmen ordnen im Normalfall nur etwa 0,3 Prozent der Gesichter nicht korrekt zu - eine Fehlerrate, mit der die meisten Anwender gut leben können. Die NIST-Studie zeigt jetzt, dass diese Rate bei den besten Programmen durch die Masken auf fünf Prozent steigt. Andere Algorithmen scheitern fast an der Hälfte aller maskierten Gesichter. Für das alltägliche Entsperren des Handys oder für Selbstauslöser in Kameras sind sie damit nicht wirklich zu gebrauchen.

Die Programme schneiden dabei umso schlechter ab, je höher die Maske im Gesicht sitzt. Wird sie nicht fachmännisch getragen, bedeckt sie also die Nase nicht, erkennen die Programme die Gesichter dahinter etwas besser. Überraschenderweise spielt aber auch die Farbe der Maske eine Rolle: Schwarze Masken brachten die Algorithmen häufiger aus dem Konzept als blaue. Über die Gründe lässt sich nur spekulieren. Die meisten modernen Gesichtserkennungsprogramme basieren auf künstlichen neuronalen Netzen, einem Teilgebiet des maschinellen Lernens. Die Kriterien, anhand derer solche Modelle entscheiden, sind mitunter kaum nachvollziehbar. Selbst führende Forscher bezeichnen die Algorithmen als "Black Boxes". Fest steht, dass nicht selten die Abstände zwischen Augen, Nase und Mund eine gewisse Rolle spielen. Das würde zumindest erklären, wieso die Software besser wird, wenn die Nase nicht von der Maske bedeckt ist.

Kehrt mit den Masken die Anonymität zurück?

Viele Staaten setzen Gesichtserkennung ein, um etwa in Bahnhöfen oder Flughäfen Kriminelle aufzuspüren. Auch in Deutschland gab es bereits Testläufe. Ob Masken diese Massenüberwachung dauerhaft erschweren könnten, ist aber auch nach der Studie unklar. Die Forscher um Ngan haben nur sogenanntes "One-to-one matching" (deutsch: "Vergleich mit einem") untersucht. Dabei gleicht zum Beispiel ein Handy oder Tablet ein aktuelles Bild mit den im Gerät hinterlegten Aufnahmen des Besitzers ab. Für die digitale Massenüberwachung ist dagegen das "One-to-many matching" (deutsch: "Vergleich mit vielen") relevant. Dabei werden Gesichter aus einer Menschenmenge mit allen in Datenbanken gespeicherten Gesichtern abgeglichen.

Die Technologie hinter beiden Anwendungen ist prinzipiell dieselbe, doch beim "One-to-many" muss die Software deutlich mehr Bilder miteinander vergleichen. Das erhöht die Schwierigkeit. Wenn Masken also schon "One-to-one"-Programme aus dem Konzept bringen, liegt die Vermutung nahe, dass sie auch "One-to-many"-Systemen Probleme bereiten werden.

Ob die Masken auf Dauer die Anonymität der Träger wahren können, muss sich erst noch zeigen. Denn es geht um lernfähige Systeme. Für die NIST-Studie wurden nur Algorithmen genutzt, die vor der Corona-Pandemie entwickelt worden waren. Diese Programme hatten dementsprechend anhand unmaskierter Gesichter gelernt, Personen zu erkennen.

Es gibt jedoch schon viele Versuche, bestehende Software umzuschulen, indem sie mit Bildern maskierter Menschen gefüttert wird. Auf Entwicklerplattformen wie Github kursieren etliche Datensätze mit Selfies maskierter Personen. Anhand dieser Trainingsdaten "üben" die Algorithmen dann, auch halb verdeckte Gesichter richtig zuzuordnen. Erste Erfolgsmeldungen gibt es: So berichteten etwa chinesische Wissenschaftler aus Wuhan bereits im April, ihre Systeme könnten mehr als 95 Prozent der Gesichter allein anhand der Augen richtig erkennen.

"Noch in diesem Sommer wollen wir die Genauigkeit von Algorithmen überprüfen, die speziell für Maskenträger entwickelt wurden", sagt Mei Ngan. Es erscheint wahrscheinlich, dass die Ergebnisse dann eine andere Sprache sprechen werden. Kennen sie genug hochauflösende Bilder, werden Computer wohl auch mit halb verdeckten Gesichtern fertigwerden.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Maschinelles Lernen
:Wenn Obama plötzlich ein Weißer ist

Künstliche Intelligenz diskriminiert dunkelhäutige Menschen. Wissenschaftler streiten darüber, ob es nur an falschen Daten liegt oder Vorurteile in der gesamten Software verankert sind.

Von Julian Rodemann

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: