Thema der Woche:Schau genau

Lesezeit: 1 min

Thema der Woche: Hier stimmt ganz offensichtlich was nicht. Deepfakes sind da leider viel schwieriger zu entlarven... Collage: Yulia Drobova

Hier stimmt ganz offensichtlich was nicht. Deepfakes sind da leider viel schwieriger zu entlarven... Collage: Yulia Drobova

Was im Krieg als Erstes auf der Strecke bleibt, ist die Wahrheit. Das gilt natürlich auch für Informationen und Videos im Internet. Jetzt tauchen viele raffiniert gefälschte Filme auf. Warum das gefährlich ist - und wie man sie erkennt.

Von Nina Himmer

Wladimir Putin sitzt an seinem Riesentisch im Kreml. Er sieht zerknirscht aus, knetet nervös die Hände. Dann spricht der russische Präsident von einem großen Fehler, entschuldigt sich bei der Ukraine und zeigt auf einer Karte, wie und wo er beim Wiederaufbau des Nachbarlandes helfen will. Zu schön, um wahr zu sein? Stimmt leider auch nicht. Eine solche Rede hat Putin nie gehalten.

Trotzdem könnte es diese Szene auf Video geben, Deepfake macht es möglich. So nennt man gefälschte Videos, in denen Menschen Dinge tun oder sagen, die nichts mit der Realität zu tun haben. Dafür werden Computerprogramme mit Daten über einen Menschen gefüttert: Wie sieht er aus? Wie bewegt er sich? Welche Gesten verwendet er? Weil es von Politikern viel echtes Material gibt, ist dieses Datenfutter leicht zu beschaffen. Die Programme bauen den Menschen dann künstlich nach. Das kann lustig sein, wenn Putin etwa auf Tiktok tanzt. Vor allem aber ist es gefährlich, weil man damit Menschen manipulieren kann: Unser Gehirn glaubt gerne, was wir mit eigenen Augen sehen. Deshalb sind gerade besonders viele Deepfakes im Umlauf. Im Krieg wird nämlich nicht nur mit Waffen, sondern auch mit Informationen gekämpft. In einem Video verkündet Putin zum Beispiel den Sieg Russlands, auf einem anderen fordert der ukrainische Präsident Wolodimir Selenskij seine Soldaten zum Aufgeben auf. Beide Videos wurden schnell als Fälschung enttarnt, weil sie technisch nicht gut gemacht waren.

Ein Hinweis auf Fälschungen sind zum Beispiel abgehackte Bewegungen, eine roboterhafte Stimme, fehlendes Blinzeln oder Unstimmigkeiten bei der Schärfe von Vorder- und Hintergrund. Allerdings gibt es auch Videos, die nur Experten als Schwindel erkennen - etwa anhand des Schattenwurfs im Gesicht oder Spiegelungen in den Augen. Wer selbst unter die Wahrheitschecker gehen möchte, kann Videos zum Beispiel bei www.deepware.ai prüfen.

Zur SZ-Startseite
Süddeutsche Zeitung
  • Twitter-Seite der SZ
  • Facebook-Seite der SZ
  • Instagram-Seite der SZ
  • Mediadaten
  • Newsletter
  • Eilmeldungen
  • RSS
  • Apps
  • Jobs
  • Datenschutz
  • Abo kündigen
  • Kontakt und Impressum
  • AGB