Perfekt gefälschte Videos:Fox News und Photoshop sind gefährlicher als Deep Fakes

Deep Fake Putin

Hat er das wirklich gesagt? Das mag man sich bei Wladimir Putin öfter fragen. Hier ist aber tatsächlich ein manipuliertes Video zu sehen.

(Foto: Alexandra Robinson/AFP)
  • Deep-Learning-Algorithmen können Videos fast nach Belieben manipulieren.
  • Bislang ist es relativ aufwändig, perfekte Fälschungen zu erstellen.
  • Die Technik entwickelt sich schnell weiter: In wenigen Jahren kann womöglich jeder alles fälschen.
  • Deshalb tüfteln Wissenschaflter an Gegenstrategien und versuchen, Deep Fakes mit künstlicher Intelligenz zu entlarven.

Von Simon Hurtz

"Sensationelle Enthüllung: Die Mondlandungen sind ein Schwindel, die USA haben alles gefälscht!" Wie, das glauben Sie nicht? Aber es steht doch auf Facebook. Immer noch nicht überzeugt? Gut so. Natürlich ist das Unsinn, nur weil es im Netz steht, wird es nicht wahrer. Aber was wäre mit einem Video, in dem Barack Obama und der langjährige Nasa-Chef Charles Bolden beteuern, dass die Verschwörungstheoretiker recht haben?

Technisch wäre das möglich: Sogenannte Deep-Fake-Videos erzeugen nahezu perfekte Illusionen. Mit Hilfe künstlicher neuronaler Netzwerke lassen sich Fotos, Tonaufnahmen und Videos nach Belieben manipulieren. Die Programme verwischen die Grenze zwischen Wahrheit und Fiktion, manche Forscher warnen, die Technik gefährde die Demokratie. Wie groß ist das Risiko tatsächlich?

Das Vertrauen ins geschriebene Wort hat das Internet bereits erschüttert. Jeder kann Falschmeldungen auf Facebook weiterverbreiten und neue Lügen in die Welt tippen. Audioaufnahmen und bewegte Bilder gelten dagegen immer noch als vertrauenswürdig.

Im Zeitalter von Deep Fakes sei das ein Fehler, sagt Hany Farid, Informatikprofessor der Universität Berkeley: "Wir steuern auf einen Punkt zu, an dem normale Menschen nicht mehr zwischen Fake und Original unterscheiden können." Farid spricht von einem Kampf mit ungleichen Waffen: "Es ist unfair. Auf einen Menschen, der daran forscht, Manipulationen zu erkennen, kommen hundert, die immer perfektere Fälschungen entwickeln."

Die Fälscher profitieren sogar von der Arbeit der Aufklärer. Im vergangenen Jahr entdeckte Siwei Lyu, Leiter des Zentrums für maschinelles Lernen der Universität Albany, dass sich viele manipulierte Videos ganz einfach erkennen lassen: Als Ausgangsmaterial dienen oft Fotos - und da es kaum Fotos mit geschlossenen Augen gibt, blinzeln die Protagonisten nicht. Zwei Wochen später schrieb ihm ein Fälscher: Danke für den Hinweis, die Menschen in unseren neuen Deep Fakes blinzeln jetzt auch.

"Denken Sie daran, wie Schüler damit Klassenkameraden mobben"

Einer der Wissenschaftler, die an der Erkennung von Deep Fakes arbeiten, ist Matthias Nießner. Der Professor für "Visual Computing" der TU München hat die Software Face Forensics entwickelt. Sie schlägt Fälscher mit ihren eigenen Waffen: Neuronale Netze werden mit etlichen gefälschten Videos gefüttert, bis sie regelmäßige Muster finden, die dem menschlichen Auge oft verborgen bleiben. Legt man der künstlichen Intelligenz ein Standbild aus einem Deep Fake vor, entlarvt sie es in acht von zehn Fällen als Fälschung. Ungeschulten Testpersonen gelingt dies in 52 Prozent der Fälle.

"Von der Informationsapokalypse sind wir noch weit entfernt", sagt Nießner. "Ich bekomme pro Woche zehn E-Mails: 'Ich habe ein Deep-Fake-Video gebastelt, aber es sieht bescheuert aus. Können Sie uns helfen?' Die Technik ist einfach noch nicht so weit." Für täuschend echte Manipulationen brauche es Experten, leistungsfähige Hardware und viel Zeit.

Derzeit gibt es vor allem einen Einsatzzweck für Deep Fakes: Pornografie. Frauenfeinde erstellen Hardcore-Videos mit Gesichtern von prominenten Schauspielerinnen und lassen sich in misogynen Ecken des Netzes dafür feiern. "Das muss dann gar nicht perfekt gefälscht sein, um Schaden anzurichten", sagt Nießner. "Denken Sie nur daran, wie Schüler das einsetzen könnten, um Klassenkameraden zu mobben."

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: