Süddeutsche Zeitung

Deep Fake:Gefälschte Nacktbilder aus der App

  • Ein Entwickler aus den USA hatte eine App auf den Markt gebracht, mit der angeblich jedes Bild einer bekleideten Person in ein Nacktbild verwandelt werden kann.
  • Sie wurde mehr als 500 000-mal heruntergeladen.
  • Mittlerweile wurde die App gelöscht.

"Revenge Porn" ist das Damoklesschwert des Social Media-Zeitalters. Drohend hängt es über all den Menschen, die schon einmal in einer intimen Beziehung Nacktfotos an ihren Partner geschickt haben. Ist die Beziehung vorüber, bleibt das Bild in der Regel auf dem Gerät des ehemaligen Partners gespeichert. Im besten Fall löscht er es, im schlimmsten veröffentlicht er es im Internet. Dann schwirren schnell Kopien durchs Netz, das bekanntlich nichts vergisst.

Zahlen von 2018 zeigen, welche Ausmaße das Phänomen "Rache-Porno" angenommen hat: Allein Facebook prüfte im vergangenen Jahr mehr als 54 000 Fälle - jeden Monat. Auch auf Instagram und Snapchat tauchen immer wieder solche Bilder auf, von obskuren Porno-Foren ganz zu schweigen. Die Opfer solcher Manipulationen leiden schwer. Sie fühlen sich nicht mehr sicher, schämen sich, geben sich selbst die Schuld. Einer aktuellen Studie zufolge, für die mehr als 1200 weibliche Opfer befragt wurden, erleiden sie ein ähnliches Trauma wie Opfer von sexuellem Missbrauch. Das liegt nicht zuletzt an Menschen, die den Betroffenen eine Mitschuld geben: Es habe sie ja niemand gezwungen, Nacktfotos zu verschicken.

Lange konnte man sich gegen "Revenge Porn" schützen, indem man das Mantra beherzigte, niemals etwas von sich zu veröffentlichen oder verschicken, was man nicht auch seiner Mutter schicken würde. Doch selbst diese Sicherheit gerät ins Wanken. Ein Entwickler aus den USA hatte zwischenzeitlich eine App auf den Markt gebracht, mit der angeblich jedes Bild einer bekleideten Person in ein Nacktbild verwandelt werden kann. Das Programm "Deep Nude" versieht jedes Foto eines Menschen, das durch die App gejagt wird, mit Brüsten und einer Vulva. Es funktioniert mithilfe eines Algorithmus, den Forscher der University of California in Berkeley entwickelt und 2017 veröffentlicht haben. Er wurde von den Machern der App mit mehr als 10 000 Nacktbildern gefüttert und dann - ähnlich wie bei den schon bekannten "Deep Fake"-Videos dazu gebracht, sich selbst immer weiter zu verbessern.

Das Ergebnis wirkte in vielen Fällen realistisch

Journalisten von Vice testeten die App, die neben einer kostenlosen Version auch eine "Premium"-Version für 50 Dollar hatte, und stellten fest, dass die Ergebnisse in vielen Fällen realistisch wirkten. Je mehr Haut die Person auf dem Originalbild zeigt, desto realistischer wird der Rest des Körpers berechnet. Zudem brauchen die Algorithmen nur wenige Sekunden, um das Bild zu erstellen. So ein gefälschtes Nacktfoto ist schnell fertig - im Gegensatz zu den einigermaßen glaubwürdig wirkenden Deep-Fake-Videos, für deren Berechnung und Herstellung oft Tage oder gar Wochen nötig sind. Das Ergebnis: Nacktfotos von Menschen, die eigentlich gar nicht nackt sind. Von nun an sind Abermillionen Menschen mehr in Gefahr, Opfer von "Revenge Porn" zu werden, und das heißt vor allem: Frauen.

Denn Opfer von "Revenge Porn" und "Deep Fake Porn" sind nahezu ausschließlich weiblich. Gründe für solche Videos gibt es viele: Enttäuschte Verehrer glauben, so könnten sie sich für eine Abfuhr rächen. Mit solchen Videos können Menschen erpresst werden. Und andere wollen damit Frauen zum Schweigen bringen: Die indische Journalistin Rana Ayyub äußerte sich öffentlich kritisch über zwei Lokalpolitiker. Die hatten sich für Angeklagte eingesetzt, die wegen Vergewaltigung und Mord an einem achtjährigen Mädchen verurteilt worden waren. Kurz darauf tauchte kurze Zeit ein Fake-Pornoclip mit Ayyub im Netz auf.

Bislang hat sich die Politik vor allem mit dem möglicherweise verheerenden Einfluss von "Deep-Fake"-Videos auf Wahlen auseinandergesetzt. So könnte einem Politiker die Beleidigung eines anderen in den Mund gelegt werden oder ein Geständnis von Korruption. Die Gefahr, die von solchen Technologien für "normale" Menschen ausgeht, wurde öffentlich selten diskutiert, bevor "Deep Nude" durchs Netz geisterte.

War es bis vor kurzem nur Profis möglich, solche Bilder und Videos zu generieren, ist die Handhabe der Software inzwischen so einfach, die Ergebnisse so überzeugend, dass bald praktisch jeder Deep-Fake-Bilder produzieren könnte, wenn er einige Fotos seines potentiellen Opfers aus dem Netz fischt. Juristische Schritte können langwierig sein und ergebnislos enden. Solange die Identität des "Produzenten" nicht bekannt ist, gibt es ohnehin niemanden, den ein Opfer verklagen kann.

Großes Interesse an der problematischen App

Der Entwickler der App, der anonym bleiben wollte, erklärte im Gespräch mit Vice, er habe sie eher aus Neugier entwickelt. Er habe sich von alten Werbeanzeigen aus den 1960er Jahren für sogenannte "Röntgenbrillen" inspirieren lassen, mit denen sich angeblich durch Kleidung hindurchschauen ließ. Er selbst sei kein Voyeur, sondern habe einfach nur die Möglichkeiten der neuen Technologien genutzt.

Schuldig an möglichem Missbrauch fühle er sich nicht. Mit der App könne im Prinzip nichts anderes getan werden als das, was schon lange mit Photoshop möglich sei, sagte er Vice. Allerdings hat er solche Manipulationen deutlich vereinfacht und beschleunigt.

Dass die App praktisch nur mit Fotos von Frauen funktioniert, rechtfertigte er damit, dass es nun mal sehr viel leichter sei, an Nacktbilder von Frauen zu kommen als an solche von Männern. Von Sexismus könne da keine Rede sein.

Das Interesse an den problematischen Apps ist da: Nachdem der Vice-Artikel vergangene Woche online gegangen war, wurde die Seite der App so häufig aufgerufen, dass der Server unter den Anfragen zwischenzeitlich zusammenbrach. Einen Tag später gab der Entwickler via Twitter bekannt, dass er die App gelöscht habe. Da sie schon mehr als 500 000 Menschen heruntergeladen hatten, sei ein Missbrauch der App aber nicht mehr auszuschließen. Das wolle er nicht verantworten - ein sehr späte Einsicht.

Am Freitag vergangener Woche hat der Entwickler die Daten für den Bau der App veröffentlicht. Jeder Programmierer mit etwas Ahnung kann sie nun nachbauen. Die Begründung des App-Erfinders: Er behauptet, die Software sei gehackt worden, eine Geheimhaltung dementsprechend sinnlos. Und möglicherweise könnten Forscher die Software für andere Zwecke, zum Beispiel in der Mode-, Filmindustrie oder für visuelle Effekte für sich nutzen.

Wenig später tauchten die ersten Kopien der App auf dem Onlinedienst Github auf, die Filehosting für Software-Entwicklungsprojekte bereitstellen. Das Unternehmen, das zu Microsoft gehört, hat nach eigenen Angaben mehrere solcher Code-Quellen inzwischen entfernt. Begründung: Es sei verboten Github zu nutzen, um sexuelle obszöne Inhalte zu veröffentlichen.

Bestens informiert mit SZ Plus – 14 Tage kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4521496
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ.de/jab/mri
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.