Künstliche Intelligenz:Vom Computer geoutet

Bayern gegen Ehe für alle

Die Regenbogen-Fahne neben einem Plakat eines Gesichts

(Foto: dpa)

Ein neues Programm kann angeblich mit Hilfe Künstlicher Intelligenz feststellen, ob ein Mensch homosexuell ist. Doch die Entwickler haben schon einmal mit den Fähigkeiten eines ihrer Programme übertrieben.

Von Michael Moorstedt

Es gibt ja immer wieder Situationen im Internet, in denen das Hirn nicht mehr ganz mit dem Auge mitkommt. Da liest man etwas nur so halb, und wenn der Artikel, um den es geht, schon fast wieder am oberen Bildschirmrand verschwunden ist, stellen sich Fragen nach der Tragweite.

"Deep neural networks are more accurate than humans at detecting sexual orientation from facial images" lautete so eine Überschrift vor Kurzem auf dem Open-Source-Wissenschaftsportal "osf.io". Eine künstliche Intelligenz, so die Autoren der Studie, sei also präziser darin, die sexuellen Neigungen von Menschen zu erkennen als deren Artgenossen. Die Software könne anhand eines Porträts in 81 Prozent der Fälle richtig einschätzen, ob ein Mann homosexuell ist oder nicht. Bei Frauen liege die Trefferquote immerhin noch bei 74 Prozent. Wenn mehrere Bilder der gleichen Person analysiert werden, steigen diese Zahlen sogar noch um ein Zehntel. Damit wäre der Rechner gegenüber einer menschlichen Kontrollgruppe, der die gleichen Fotos vorgelegt wurden um beinahe 40 Prozent präziser. Geoutet vom Computer.

Kriminelle Vorgeschichte, erkennbar per Gesichtsanalyse?

Man muss das gar nicht mal lang abstrahieren, damit es einem den Magen umdreht. Es geht nicht nur darum, dass eventuell Arbeitgeber die Software dazu missbrauchen könnten, um potenzielle Mitarbeiter auf deren Neigungen zu überprüfen. Sondern auch um die schlichte Tatsache, dass Abermilliarden Menschen ihre Porträts auf Facebook und andere sozialen Netzwerke hochgeladen haben. Und damit wohl auch der unfreiwilligen Analyse durch solche Software aussetzen.

Mit unterschiedlichen Parametern ließen sich mit dieser Methode auch andere biologische und soziale Marker wie etwa Intelligenzquotient, psychische Krankheiten oder gar politische Gesinnungen identifizieren, so Michal Kosinski, einer der Co-Autoren. Ein anderes Forscherteam der Universität von Shanghai hat etwa eine Software vorgestellt, die angeblich mittels Gesichtsanalyse feststellen kann, ob ein Mensch eine kriminelle Vorgeschichte hat oder nicht.

Die KI ist nur so gut wie die Daten, mit denen sie trainiert wurde

Kosinski ist in Sachen Daten-Dystopie kein Unbekannter: Zum ersten Mal erfuhr die Öffentlichkeit von ihm Ende vergangenen Jahres, als ein inzwischen berüchtigter Artikel ihn und seine Forschung vorstellte, mit deren Hilfe die britische Firma Cambridge Analytics angeblich Millionen Amerikaner mittels zielgenauer Ansprache auf Facebook dazu brachte, Donald Trump zu wählen. Dass dessen Erfolg dann doch nicht so einfach zu erklären war, gaben die Autoren erst im Nachhinein zu. Da war es schon zu spät.

Es liegt wohl an Artikeln wie diesem, dass es momentan einen geradezu unerschütterlichen Glauben an die Macht von künstlicher Intelligenz gibt. Dabei wird jedoch meistens vergessen, dass eine KI-Software immer nur so gut und zuverlässig ist wie die Datensätze, mit denen sie trainiert wurde. Wenn die Bilder falsch konnotiert sind, wird aus Hetero schnell Homo, aus unbescholten kriminell, aus rechts links und aus dumm klug. Wenn die Software erst einmal meint, ein Muster erkannt zu haben, wird dieses auch angewendet. Ausnahmen sind nicht vorgesehen.

Insofern gleicht die Technik von morgen der Wissenschaft von gestern. Schließlich hat man schon im 18. Jahrhundert versucht, mittels Schädelvermessungen Aussagen über die Charaktereigenschaften und angeblichen Rassenmerkmale der Menschen zu treffen. Auch die Nazis haben sich sehr dafür interessiert. Es hat Jahrhunderte gebraucht, bis die sogenannte Kraniometrie als Humbug enttarnt war.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: