Künstliche Intelligenz:Echt falsch

Künstliche Intelligenz: Echte Politiker wie Kim Jong-un, Angela Merkel, Wladimir Putin und Xi Jinping (im Uhrzeigersinn) bei echten Neujahrsansprachen – aber was passiert, wenn künstliche Intelligenz Falschbilder der Mächtigen produziert?

Echte Politiker wie Kim Jong-un, Angela Merkel, Wladimir Putin und Xi Jinping (im Uhrzeigersinn) bei echten Neujahrsansprachen – aber was passiert, wenn künstliche Intelligenz Falschbilder der Mächtigen produziert?

(Foto: dpa (2), afp, ap)

Bedrohen Videos, die mithilfe künstlicher Intelligenz manipuliert werden, die Demokratie? Die Bundesregierung sieht in Deep Fakes "eine große Gefahr".

Von Simon Hurtz

Wie gefährlich sind Deep Fakes? Bedrohen Videos, die mithilfe künstlicher Intelligenz manipuliert werden, die Demokratie? Die beste Antwort liefert ein Beispiel aus Gabun: Vor knapp einem Jahr tauchte ein Video auf, das angeblich die Neujahrsansprache des Präsidenten Ali Bongo zeigt. Die Opposition witterte einen Deep Fake und unterstellte Bongo, mit einem gefälschten Video zu vertuschen, dass er schwer krank sei. Daraufhin putschte das Militär gegen den Staatschef - obwohl es bis heute keinen Beweis für eine Manipulation gibt.

Der Fall zeigt exemplarisch, was die meisten Forscher immer wieder betonen: Gefährlicher als Deep Fakes selbst ist der Vertrauensverlust, der damit einhergeht. Sogenannte Fake News haben die Grenzen zwischen Fakten, Desinformation und Lügen aufgeweicht. Jetzt lassen Deep Fakes Menschen zweifeln, ob sie ihren Augen und Ohren trauen können. Selbst bewegte Bilder gelten plötzlich nicht mehr als Beweis, Wahrheit wird relativ.

Die Zahl pornografischer Fakes nimmt zu. Die Opfer sind vor allem Frauen

Das deckt sich mit der Einschätzung der Bundesregierung. In einer bislang unveröffentlichten Antwort auf eine Kleine Anfrage der FDP-Fraktion, die der SZ vorliegt, schreibt sie: "Deep Fakes können das gesellschaftliche Vertrauen in die grundsätzliche Echtheit von Audio- und Videoaufnahmen und damit die Glaubwürdigkeit öffentlich verfügbarer Informationen schwächen." Die Antwort verweist darauf, dass Wissenschaftler "angesichts der noch geringen Relevanz für die Öffentlichkeit vor einer Überbewertung der Gefahren für demokratische Prozesse" warnten.

Trotzdem glaubt die Bundesregierung, dass Deep Fakes "eine große Gefahr für Gesellschaft und Politik darstellen können, wenn sie dazu genutzt werden, die öffentliche Meinung zu manipulieren". Deshalb werde das Thema in mehreren Ressorts und auch innerhalb der obersten Bundesbehörden behandelt. Unter anderem beschäftigten sich Arbeitseinheiten im Auswärtigen Amt, dem Innen- und dem Justizministerium mit Deep Fakes. Bildungs- und Verteidigungsministerien förderten Forschungsvorhaben zu IT-Forensik und manipulierten Videos als Instrument hybrider Kriegsführung. Auch im Bundeskanzleramt seien Deep Fakes ein Thema.

"Wie so oft bei Fragen des digitalen Wandels hat sich die Bundesregierung nur sehr oberflächlich mit Deep Fakes auseinandergesetzt", sagt Manuel Höferlin (FDP), der die Anfrage mit zwei Fraktionskollegen gestellt hatte. Statt eine abgestimmte Strategie zu entwickeln, beschäftigten sich Ministerien mit Einzelfragen. "Besonders problematisch finde ich, dass die Bundesregierung offensichtlich keine Gefahr von Deep Fakes im Zusammenhang mit Wahlen erkennt." Die Bundesregierung dürfe sich nicht aus der Verantwortung stehlen, indem sie auf Maßnahmen der EU verweise. "Ich halte dieses ignorante Verhalten für gefährlich", sagt Höferlin.

Die FDP-Abgeordneten skizzieren in ihrer Anfrage drei Arten, wie Deep Fakes Schaden anrichten können: Erstens böten sie "neue und bessere Möglichkeiten für Desinformation". Darauf geht die Bundesregierung ausführlich ein. Zweitens gefährdeten Deep Fakes Identifikationsverfahren, da sich mit der Technik biometrische Merkmale wie Stimme, Iris und Gesicht fälschen ließen. Auch diese Bedrohung taucht in der Antwort an mehreren Stellen auf.

Die dritte Gefahr betrifft in erster Linie Frauen: Deep Fakes werden genutzt, um die Gesichter von Prominenten oder Privatpersonen in pornografische Videos einzubauen. Entsprechende Apps wurden Hunderttausende Male heruntergeladen, die gefälschten Pornos verbreiten sich massenhaft im Netz. Tatsächlich ist diese Art der Persönlichkeitsrechtsverletzung der mit Abstand am meisten verbreitete Anwendungsfall: Dem Sicherheitsunternehmen Deeptrace Labs zufolge machen gefakte Pornos 96 Prozent aller Deep Fakes aus.

Obwohl die Bundesregierung die 18 Fragen auf neun Seiten ausführlich beantwortet, spielt diese Gefahr für Frauen darin keine Rolle. Es wird lediglich darauf verwiesen, dass die Länder dafür zuständig seien, Verbraucherinnen und Verbraucher zu beraten. Lapidar heißt es: "Die Bundesregierung verfügt derzeit nicht über Informationen darüber, ob in den Ländern entsprechende Beratungs- und Hilfeeinrichtungen speziell zu Deep-Fake-Anwendungen bestehen."

Höferlin findet es "inakzeptabel", dass die Bundesregierung "mit keiner Silbe" auf diese Bedrohung eingehe. Anscheinend betrachte sie die Gefahren von Deep Fakes nur aus der Perspektive der Desinformation. "Es fehlt ihr offenbar an jeglichem Problembewusstsein", sagt Höferlin. Bei pornografischen Inhalten seien Deep Fakes bereits heute eine reale Gefahr für Privatpersonen. Die Bundesregierung müsse sich dieser Problematik dringend bewusst werden. "Denn digitale Gewalt - vor allem gegen Frauen - ist ein gesellschaftlich höchst brisantes Thema."

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: