Deepfake-Betrug:Angestellter überweist 24 Millionen Euro an Betrüger

Lesezeit: 2 Min.

Berichten zufolge ließ sich das Opfer durch eine Videokonferenz, ähnlich wie auf diesem Symbolbild, überzeugen - bei der alle anderen Anwesenden computergenerierte Fälschungen gewesen sein sollen. (Foto: BiancoBluex/IMAGO/Pond5 Images)

In Hongkong sollen Kriminelle eine Videokonferenz eines internationalen Konzerns gefälscht und eine riesige Summe erbeutet haben. Doch was ausschlaggebend war, ist unklar: Deepfakes oder Dummheit.

Von Simon Hurtz, Berlin

Es ist mal wieder eine Meldung zum Gruseln, die da gerade von Hongkong aus um die Welt geht. Angeblich haben Kriminelle einen internationalen Konzern um knapp 24 Millionen Euro betrogen. Dafür sollen sie mithilfe künstlicher Intelligenz Stimmen imitiert und Gesichter in Videos ersetzt haben. Den Berichten zufolge ließ sich das Opfer durch eine Videokonferenz überzeugen - bei der alle anderen Anwesenden computergenerierte Fälschungen gewesen sein sollen.

Man könnte diese Nachricht als Beleg deuten, dass man gar nichts mehr glauben darf. Wenn sich jetzt schon ganze Meetings fälschen lassen, dann steht die Informationsapokalypse unmittelbar bevor. Menschen müssen aufhören, ihren Augen und Ohren zu trauen.

Ganz so dramatisch ist die Lage zum Glück nicht. Dafür gibt es drei Gründe. Erstens scheint sich die Hongkonger Polizei selbst nicht sicher zu sein, was eigentlich vorgefallen ist. Fest steht, dass die Betrüger eine Angestellte oder einen Angestellten aus der Finanzabteilung überzeugt haben, insgesamt 15 Überweisungen auf fünf unterschiedliche Konten zu tätigen. Unklar ist dagegen, welche Technologien zum Einsatz kamen.

Das Opfer soll zunächst eine Nachricht des vermeintlichen Finanzchefs erhalten haben, dass eine geheime Transaktion nötig sei. Daraufhin sei die Person misstrauisch geworden. Erst ein Videotelefonat mit mehreren vertrauten Kolleginnen und Kollegen sowie dem Finanzchef aus London habe die Zweifel beseitigt. Dummerweise war keiner der Teilnehmenden echt.

Deepfake oder Doppelgänger?

Das bedeutet aber nicht, dass alle Gesichter in Echtzeit durch sogenannte Deepfakes ersetzt wurden. Die Polizei hält es auch für möglich, dass die Kriminellen Videos der Anwesenden einspielten, die sie zuvor erbeutet hatten, und lediglich die Stimmen fälschten. Zudem sollen sie nicht direkt mit dem Opfer interagiert und das Meeting abrupt beendet haben. Das relativiert das Narrativ des vermeintlich perfekten Betrugs - es gab wohl reichlich Warnsignale.

Den zweiten Grund, den Vorfall nicht überzubewerten, liefert ein Blick in die Vergangenheit. Seit Jahren gibt es Meldungen über angebliche Deepfakes, die Millionenschäden oder politische Verwirrung verursacht haben sollen. Mit Sicherheit ist keiner der Fälle belegt. Hinter der angeblich computergenerierten Stimme könnte auch ein Stimmenimitator stecken, vermeintliche Echtzeit-Deepfakes von Politikern stellten sich später als Doppelgänger oder technisch weniger komplexe Fälschungen heraus.

Für den dritten Grund muss man noch weiter zurückschauen, etwa ins SZ-Archiv. Vor einem Jahrzehnt wurde dort eine Betrugsmasche beschrieben, die Versicherer "Fake President" nennen, falscher Konzernchef. Damals gab es noch keine synthetischen Stimmen oder perfekt gefälschte Videos. Trotzdem gelang es Betrügern mehrfach, Finanzangestellte zu überzeugen, Geld zu überweisen. Dafür genügten gehackte oder gefälschte E-Mail-Adressen, Akribie und Autorität.

Manipulation braucht keine Technologie

Dabei zeigt sich ein Muster, das man auch in sozialen Medien beobachten kann: Um Verwirrung zu stiften, braucht es keine aufwendigen, technisch perfekten Fälschungen. Oft reicht es, Menschen geschickt zu manipulieren, indem man ihr Vertrauen erschleicht, sie unter Druck setzt oder Dinge behauptet, die in ihr Weltbild passen.

Da ruft der vermeintliche Chef aus dem Ausland an und benötigt für ein angeblich geheimes Projekt eine große Geldsumme, oder jemand teilt ein Video aus dem syrischen Aleppo und schreibt dazu, darauf seien Ruinen aus Gaza-Stadt zu sehen. Auch der Enkeltrick, bei dem sich Kriminelle als Verwandte älterer Menschen ausgeben, kommt meist ohne Technologie aus.

Ob Cheap Fake, also eine billigere Fälschung, oder Deepfake: Ein Ratschlag der Hongkonger Ermittler gilt für alle Situationen: Wer aufgefordert wird, dringend Geld zu überweisen, sollte misstrauisch werden - und im Zweifel eine Kollegin fragen oder die Polizei anrufen.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusArbeitswelt
:Knallt es jetzt zwischen Boomern und Gen Z?

Die einen mussten sich alles in ihrer Karriere erkämpfen, die anderen bekommen Viertagewoche, Sabbatical und Home-Office hinterhergeschmissen. Kein Wunder, dass das manche unfair finden.

Von Paulina Würminghausen

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: