Es ist ein relativ neues Phänomen, das Historiker und Mitarbeitende historisch-politischer Bildungsstätten alarmiert: Mit künstlicher Intelligenz (KI) erstellte Bilder und Videos, die vorgeben, Szenen aus Konzentrations- und Vernichtungslagern zu zeigen, fluten seit Monaten die Nachrichtenfeeds auf Facebook, Tiktok oder X. In den allermeisten Fällen fehlt der Hinweis, dass es sich dabei um frei erfundene Inhalte handelt. Jetzt wehren sich Gedenkstätten, Museen und Erinnerungsinitiativen aus ganz Deutschland gemeinsam gegen die massenhafte Geschichtsverzerrung in sozialen Medien. Etwa 30 Einrichtungen fordern die Betreiber der Plattformen in einem offenen Brief auf, konsequenter gegen KI-generierte Holocaust-Fälschungen vorzugehen.
„Mit jedem dieser Postings wird die Arbeit von Gedenkstätten, Archiven, Museen und Forschungseinrichtungen entwertet und ihre Glaubwürdigkeit untergraben“, heißt es in dem Brief des Netzwerkes. Zu den Unterzeichnern gehören etwa KZ-Gedenkstätten wie Dachau, Buchenwald und Neuengamme, die Gedenk- und Bildungsstätte Haus der Wannsee-Konferenz, das Jüdische Museum Berlin oder die Arolsen Archives. „Wir setzen uns für eine digitale Öffentlichkeit ein, in der Überlebende der nationalsozialistischen Verfolgung und ihre Nachkommen davor geschützt sind, dass ihre Lebensgeschichten von Unbekannten für Profit instrumentalisiert werden.“
Auf Kosten historischer Fakten werden mit Klicks und Aufmerksamkeit Geschäfte gemacht
Die Auswahl an gefälschten historischen Inhalten auf sozialen Medien ist schier grenzenlos: Da ist das Bild eines Soldaten, der bei der Befreiung des Konzentrationslagers Dachau menschliche Knochen sammelt, um sie zu vergraben. Da ist der jüdische Junge, der in einer Häftlingsbaracke in Auschwitz Geige spielt. Oder da ist eine Mutter, die ihren Säugling aus dem Vernichtungslager Sobibor durch einen Zaun einer Frau übergibt, um ihn zu retten. Nichts davon ist echt – außer vielleicht die Emotionen, die diese Fake-Bilder bei Betrachtern auslösen.
Es ist ein makabres Geschäft um Klicks und Aufmerksamkeit auf Kosten historischer Fakten. Die Accounts, die diese KI-Inhalte verbreiten, erreichen damit teilweise Zehntausende Menschen nur mit einem Beitrag. Einige schlagen auch Profit daraus. In einer aufwendigen Recherche hat die BBC viele der KI-generierten Bilder, die auf Facebook im Umlauf sind, zu den Konten eines Netzwerkes aus pakistanischen Content-Erstellern zurückverfolgen können. Demnach nutzen diese die falschen historischen Aufnahmen für ein Monetarisierungsprogramm von Meta, das Nutzer für Beträge mit vielen Aufrufen bezahlt. Dem BBC-Artikel zufolge hat ein Accountinhaber so rund 20 000 Dollar verdient.

Diese Inhalte bestünden aus Versatzstücken historischer Fakten und emotionalisierter Fiktion, schreiben die Bildungseinrichtungen in dem offenen Brief. Zum einen würden sogenannte Content-Farmen „die emotionale Wucht des Holocaust“ ausnutzen, um mit minimalem Aufwand maximale Reichweite zu erzielen. „Zum anderen werden diese Inhalte gezielt eingesetzt, um historische Fakten zu verwässern, Opfer- und Täterrollen zu verschieben oder revisionistische Narrative zu verbreiten.“ Diese Entwicklung beobachte man „mit großer Sorge“. KI-generierte Inhalte würden die Sehgewohnheiten der Nutzer und Nutzerinnen verändern, „die zunehmend auch authentische historische Dokumente anzweifeln“, heißt es in dem Brief.
Tatsächlich sind historische Aufnahmen von Szenen aus den Konzentrations- und Vernichtungslagern eine Rarität. Es handelt sich dabei in der Regel um Propagandafotografie, mit deren Hilfe die Nationalsozialisten die Situation in den Lagern beschönigen wollten, oder um Fotos, welche alliierte Soldaten bei der Befreiung machten, um die Verbrechen zu dokumentieren. Die originalen Bestände sind in den Archiven von Gedenkstätten oder Institutionen wie dem United States Holocaust Memorial Museum in Washington zu finden. Ihre Verwendung ist oft urheberrechtlich streng geregelt. Die Gedenkstätten, Museen und Erinnerungsinitiativen sehen die Gefahr, dass echte historische Quellen und wissenschaftliche Forschung nun durch massenhaft KI-generierte Inhalte verdrängt werden.
Die SZ-Redaktion hat diesen Artikel mit einem Inhalt von Instagram angereichert
Um Ihre Daten zu schützen, wurde er nicht ohne Ihre Zustimmung geladen.
Ich bin damit einverstanden, dass mir Inhalte von Instagram angezeigt werden. Damit werden personenbezogene Daten an den Betreiber des Portals zur Nutzungsanalyse übermittelt. Mehr Informationen und eine Widerrufsmöglichkeit finden Sie unter sz.de/datenschutz.
Die historisch-politischen Bildungseinrichtungen betonen ausdrücklich, nicht gegen digitale Formen der Geschichtsvermittlung zu sein – die allermeisten von ihnen haben eigene Accounts auf Instagram oder Tiktok. Historisch-politische Bildungsarbeit könne durch den Einsatz von KI profitieren, schreiben sie. Die gesellschaftliche Herausforderung bestehe jedoch darin, „ethische und historisch verantwortungsvolle Standards für diese Technologie zu entwickeln“. Plattformbetreiber hätten eine besondere Verantwortung: „Sie müssen sicherstellen, dass das Leid der Opfer nicht durch emotionalisierte Fiktionen trivialisiert wird.“
Konkret fordern die Unterzeichner des Briefes die Plattformbetreiber auf, KI-generierte Inhalte ausnahmslos zu kennzeichnen und bei Verstößen gegen die Kennzeichnungspflicht zu entfernen. Auch sollten Konten, die solche Bilder verbreiten, von den Monetarisierungsprogrammen ausgeschlossen werden. In einer eigenen Social-Media-Kampagne appellieren die Einrichtungen an die Nutzer von Instagram, Tiktok und Co., die Fake-Beiträge nicht zu teilen, sondern zu melden.
Ob die Plattformen sich davon beeindrucken lassen? Zuletzt hatte Meta, der Mutterkonzern von Facebook und Instagram, auf SZ-Anfrage nur allgemein auf „Gemeinschaftsstandards“ verwiesen, die festlegen würden, welche Inhalte auf Facebook und Instagram erlaubt seien. Es sei bisher technisch nicht möglich, alle KI-generierten Inhalte zu identifizieren, hieß es. Zusammen mit anderen Unternehmen der Branche arbeite man aktuell an einheitlichen Standards, um KI-Content zu erkennen. Bei Tiktok hatte man in Reaktion auf eine SZ-Anfrage ein paar KI-Bilder und Videos entsprechend gelabelt. Eine Sprecherin versicherte, das Thema ernst zu nehmen und bei Bedarf nachzujustieren.

