Wladimir Putin sitzt an seinem Riesentisch im Kreml. Er sieht zerknirscht aus, knetet nervös die Hände. Dann spricht der russische Präsident von einem großen Fehler, entschuldigt sich bei der Ukraine und zeigt auf einer Karte, wie und wo er beim Wiederaufbau des Nachbarlandes helfen will. Zu schön, um wahr zu sein? Stimmt leider auch nicht. Eine solche Rede hat Putin nie gehalten.
Trotzdem könnte es diese Szene auf Video geben, Deepfake macht es möglich. So nennt man gefälschte Videos, in denen Menschen Dinge tun oder sagen, die nichts mit der Realität zu tun haben. Dafür werden Computerprogramme mit Daten über einen Menschen gefüttert: Wie sieht er aus? Wie bewegt er sich? Welche Gesten verwendet er? Weil es von Politikern viel echtes Material gibt, ist dieses Datenfutter leicht zu beschaffen. Die Programme bauen den Menschen dann künstlich nach. Das kann lustig sein, wenn Putin etwa auf Tiktok tanzt. Vor allem aber ist es gefährlich, weil man damit Menschen manipulieren kann: Unser Gehirn glaubt gerne, was wir mit eigenen Augen sehen. Deshalb sind gerade besonders viele Deepfakes im Umlauf. Im Krieg wird nämlich nicht nur mit Waffen, sondern auch mit Informationen gekämpft. In einem Video verkündet Putin zum Beispiel den Sieg Russlands, auf einem anderen fordert der ukrainische Präsident Wolodimir Selenskij seine Soldaten zum Aufgeben auf. Beide Videos wurden schnell als Fälschung enttarnt, weil sie technisch nicht gut gemacht waren.
Ein Hinweis auf Fälschungen sind zum Beispiel abgehackte Bewegungen, eine roboterhafte Stimme, fehlendes Blinzeln oder Unstimmigkeiten bei der Schärfe von Vorder- und Hintergrund. Allerdings gibt es auch Videos, die nur Experten als Schwindel erkennen - etwa anhand des Schattenwurfs im Gesicht oder Spiegelungen in den Augen. Wer selbst unter die Wahrheitschecker gehen möchte, kann Videos zum Beispiel bei www.deepware.ai prüfen.