Perfekt gefälschte Videos:Fox News und Photoshop sind gefährlicher als Deep Fakes

Deep Fake Putin

Hat er das wirklich gesagt? Das mag man sich bei Wladimir Putin öfter fragen. Hier ist aber tatsächlich ein manipuliertes Video zu sehen.

(Foto: Alexandra Robinson/AFP)
  • Deep-Learning-Algorithmen können Videos fast nach Belieben manipulieren.
  • Bislang ist es relativ aufwändig, perfekte Fälschungen zu erstellen.
  • Die Technik entwickelt sich schnell weiter: In wenigen Jahren kann womöglich jeder alles fälschen.
  • Deshalb tüfteln Wissenschaflter an Gegenstrategien und versuchen, Deep Fakes mit künstlicher Intelligenz zu entlarven.

Von Simon Hurtz

"Sensationelle Enthüllung: Die Mondlandungen sind ein Schwindel, die USA haben alles gefälscht!" Wie, das glauben Sie nicht? Aber es steht doch auf Facebook. Immer noch nicht überzeugt? Gut so. Natürlich ist das Unsinn, nur weil es im Netz steht, wird es nicht wahrer. Aber was wäre mit einem Video, in dem Barack Obama und der langjährige Nasa-Chef Charles Bolden beteuern, dass die Verschwörungstheoretiker recht haben?

Technisch wäre das möglich: Sogenannte Deep-Fake-Videos erzeugen nahezu perfekte Illusionen. Mit Hilfe künstlicher neuronaler Netzwerke lassen sich Fotos, Tonaufnahmen und Videos nach Belieben manipulieren. Die Programme verwischen die Grenze zwischen Wahrheit und Fiktion, manche Forscher warnen, die Technik gefährde die Demokratie. Wie groß ist das Risiko tatsächlich?

Das Vertrauen ins geschriebene Wort hat das Internet bereits erschüttert. Jeder kann Falschmeldungen auf Facebook weiterverbreiten und neue Lügen in die Welt tippen. Audioaufnahmen und bewegte Bilder gelten dagegen immer noch als vertrauenswürdig.

Im Zeitalter von Deep Fakes sei das ein Fehler, sagt Hany Farid, Informatikprofessor der Universität Berkeley: "Wir steuern auf einen Punkt zu, an dem normale Menschen nicht mehr zwischen Fake und Original unterscheiden können." Farid spricht von einem Kampf mit ungleichen Waffen: "Es ist unfair. Auf einen Menschen, der daran forscht, Manipulationen zu erkennen, kommen hundert, die immer perfektere Fälschungen entwickeln."

Die Fälscher profitieren sogar von der Arbeit der Aufklärer. Im vergangenen Jahr entdeckte Siwei Lyu, Leiter des Zentrums für maschinelles Lernen der Universität Albany, dass sich viele manipulierte Videos ganz einfach erkennen lassen: Als Ausgangsmaterial dienen oft Fotos - und da es kaum Fotos mit geschlossenen Augen gibt, blinzeln die Protagonisten nicht. Zwei Wochen später schrieb ihm ein Fälscher: Danke für den Hinweis, die Menschen in unseren neuen Deep Fakes blinzeln jetzt auch.

"Denken Sie daran, wie Schüler damit Klassenkameraden mobben"

Einer der Wissenschaftler, die an der Erkennung von Deep Fakes arbeiten, ist Matthias Nießner. Der Professor für "Visual Computing" der TU München hat die Software Face Forensics entwickelt. Sie schlägt Fälscher mit ihren eigenen Waffen: Neuronale Netze werden mit etlichen gefälschten Videos gefüttert, bis sie regelmäßige Muster finden, die dem menschlichen Auge oft verborgen bleiben. Legt man der künstlichen Intelligenz ein Standbild aus einem Deep Fake vor, entlarvt sie es in acht von zehn Fällen als Fälschung. Ungeschulten Testpersonen gelingt dies in 52 Prozent der Fälle.

"Von der Informationsapokalypse sind wir noch weit entfernt", sagt Nießner. "Ich bekomme pro Woche zehn E-Mails: 'Ich habe ein Deep-Fake-Video gebastelt, aber es sieht bescheuert aus. Können Sie uns helfen?' Die Technik ist einfach noch nicht so weit." Für täuschend echte Manipulationen brauche es Experten, leistungsfähige Hardware und viel Zeit.

Derzeit gibt es vor allem einen Einsatzzweck für Deep Fakes: Pornografie. Frauenfeinde erstellen Hardcore-Videos mit Gesichtern von prominenten Schauspielerinnen und lassen sich in misogynen Ecken des Netzes dafür feiern. "Das muss dann gar nicht perfekt gefälscht sein, um Schaden anzurichten", sagt Nießner. "Denken Sie nur daran, wie Schüler das einsetzen könnten, um Klassenkameraden zu mobben."

Menschen glauben, was ins Weltbild passt - selbst wenn es billig gefälscht ist

Für die Betroffenen ist das entsetzlich, die politischen Verwerfungen beschränken sich bislang aber auf Einzelfälle. Gabuns Präsident Ali Bongo soll etwa mit einem Deep-Fake-Video seine Neujahrsansprache inszeniert haben, um seine Genesung nach einem Schlaganfall vorzutäuschen und Neuwahlen zu verhindern. Die Kontroverse um die mögliche Fälschung löste einen Putschversuch aus. In Malaysia kursierte kürzlich ein Video, in dem ein Mann angeblich zugibt, Sex mit einem Politiker gehabt zu haben. Experten halten beide Videos für Fälschungen, können es aber bislang nicht beweisen.

"Was das politische Manipulationspotenzial angeht, sehe ich viel Hype", sagt Nießner. Um Unruhe zu stiften, seien keine Deep-Fakes nötig. "Warum sollte ich einen Machine-Learning-Ingenieur bezahlen, wenn ich mit weniger Aufwand 500 Photoshop-Fakes basteln kann, die viel mehr bewirken?"

Ein Vorfall Ende Mai belegt das Potenzial billiger Manipulationen, genannt "Cheap Fakes": Millionen Menschen sahen auf Facebook ein Video von Nancy Pelosi. Die Demokratin wirkt betrunken. Hochrangige Republikaner, darunter Trump-Berater Rudy Giuliani, teilten den Link. Tatsächlich trinkt Pelosi gar keinen Alkohol - die Originalaufnahme wurde nur verlangsamt, was Zweifel an der Zurechnungsfähigkeit weckt.

In zwei bis drei Jahren könnten Deep Fakes richtig gefährlich werden

Den viralen Erfolg der billigen Fälschungen erklärt Nießner mit einer Theorie aus der Kognitionspsychologie: "Der Bestätigungsfehler besagt, dass Menschen glauben, was sie glauben wollen. Das hängt oft mit der politischen Überzeugung zusammen." Studien zur Verbreitung von Falschnachrichten bestätigen die These: Geteilt wird, was ins Weltbild passt.

Derzeit mag von Deep Fakes noch keine große Gefahr für die Gesellschaft ausgehen. 2022 könne das schon anders aussehen, sagt Nießner: "Ich gehe davon aus, dass die Technik in zwei bis drei Jahren so weit ist, dass auch normale Nutzer ziemlich gute Fälschungen erstellen können." Das Szenario klingt bedrohlich: Manipulierte Videos fluten das Netz, wo sie auf Massenmedien und soziale Netzwerke treffen, die auf Emotionen, Reichweite und schnelle Verbreitung getrimmt sind.

Fox News richtet mehr Schaden an als alle Deep Fakes zusammen

Hinzu kommt, dass die Fälschungen die Glaubwürdigkeit von Fakten beschädigen. "Deep Fakes erleichtern es Lügnern, die Verantwortung für ihre Taten von sich zu weisen", sagt die Bostoner Juraprofessorin Danielle Citron, die zu den Auswirkungen von Deep Fakes forscht. US-Präsident Trump hat bereits versucht, echte Videos als Fälschungen abzutun. Seriöse Medien widerlegten seine Behauptungen, doch Trumps Anhänger sind eher bei Fox News zu Hause.

Dieser Fernsehsender zeigt zugleich, dass es keine KI braucht, um Schaden anzurichten. Die Verschwörungstheorien über die Mondlandung wurden maßgeblich durch eine umstrittene Doku befeuert, die Fox News 2001 ausstrahlte. Der Sender formt das Weltbild vieler US-Amerikaner bislang sicher stärker als "Fake News" und Deep Fakes zusammen.

Zur SZ-Startseite
Nancy Pelosi

Nancy Pelosi
:Warum sich Facebook weigert, ein manipuliertes Video zu löschen

Millionen Menschen sehen eine vermeintlich betrunkene US-Politikerin Nancy Pelosi. Die virale Fälschung zeigt, wie leicht sich Facebook missbrauchen lässt.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: