Bericht:Was gegen KI-Fakes helfen könnte

Bericht: Wie lassen sich Inhalte künstlicher Intelligenz kennzeichnen?

Wie lassen sich Inhalte künstlicher Intelligenz kennzeichnen?

(Foto: Peter Steffen/dpa)

Künstliche Intelligenz kann täuschend echte Bilder und Videos erzeugen. Eine Mozilla-Studie untersucht, wie solche Inhalte gekennzeichnet werden sollten - und dämpft die Hoffnung auf einfache Lösungen.

Von Simon Hurtz, Berlin

Einkaufen kann eine Wissenschaft sein. Dutzende Siegel und Symbole kennzeichnen angeblich nachhaltige und tiergerechte Produkte. Der Nutri-Score soll mit seinen Ampelfarben helfen, gesunde Lebensmittel zu finden. Wie viel das wirklich bringt, ist unklar. Manche Menschen ignorieren die Labels, andere sind verwirrt und wissen nicht, worauf sie achten sollen.

Diese Erkenntnis lässt sich auf soziale Medien übertragen. "Nutzer sind mit zu vielen Informationen überfordert", sagt Ramak Molavi Vasse'i. Sie leitet ein Forschungsprojekt zu KI-Transparenz bei der gemeinnützigen Mozilla-Stiftung und hat untersucht, wie Inhalte gekennzeichnet werden können, die von künstlicher Intelligenz erzeugt wurden. Bei Labels für Lebensmittel blicke niemand mehr durch, sagt Molavi. "Das Gleiche droht bei KI-Inhalten. Mehr Kennzeichnung kann auch nach hinten losgehen."

Das ist eine der zentralen Erkenntnisse aus dem Bericht "In Transparency We Trust?", den Mozilla der SZ vor Veröffentlichung zur Verfügung gestellt hat. Die Untersuchung beschäftigt sich mit einer Frage, auf die Facebook, Instagram, Tiktok und anderen Plattform möglichst schnell Antworten finden müssen: Wie kann es gelingen, authentische Inhalte von KI-Fakes zu unterscheiden?

Die Herausforderung ist groß und drängend. Seit Open AI Ende 2022 Chat-GPT veröffentlichte, hat sich generative KI rasend schnell weiterentwickelt. Binnen Sekunden lassen sich Texte, Töne, Bilder und Videos erzeugen, die Monat für Monat realer wirken. Ein Video, in dem Wladimir Putin den Atomkrieg ausruft oder ein vermeintlich seniler Joe Biden Unsinn auf einer Pressekonferenz erzählt - technisch ist das längst möglich.

Sichtbare Labels, unsichtbare Wasserzeichen

Mozilla-Forscherin Molavi und ihr Kollege Gabriel Udoh haben die bestehenden Ansätze in zwei Kategorien eingeteilt. Zum einen gibt es deutlich wahrnehmbare Kennzeichnungen, etwa sichtbare Symbole in Bildern und Videos oder hörbare Hinweise in synthetischen Audio-Inhalten. Zum anderen können KI-Erzeugnisse mit unsichtbaren Wasserzeichen versehen werden. Diese Markierung stecken etwa in den Metadaten oder werden mit kryptografischen Verfahren in die Inhalte eingebettet.

Alle sichtbaren Methoden haben einen großen Nachteil: Sie beruhen auf Freiwilligkeit. "Die meisten KI-Fakes im Netz werden mit Täuschungsabsicht erstellt, zum Beispiel pornografische Deepfakes, die gegen den Willen der Betroffenen erstellt und verbreitet werden", sagt Molavi. "Die Macher werden wohl kaum anfangen, diese Inhalte sichtbar zu kennzeichnen." Auch wenn sie Werkzeuge nutzen, die Bilder oder Videos als KI-generiert markieren, lassen sich solche Symbole leicht wegretuschieren oder schneiden.

Zudem verschieben Labels einen Teil der Verantwortung zu Nutzerinnen und Nutzern. Ähnlich wie bei Lebensmitteln müssten sie lernen, mit unterschiedlichen Formen von Hinweisen umzugehen. "Das kann Verwirrung stiften und sogar das Vertrauen in echte Inhalte weiter erodieren lassen", sagt Molavi. Bei bestimmten Inhalten kämen Labels auch schlicht zu spät. Wenn Frauen mit sexualisierten Fakes herabgewürdigt werden sollen, sei der Schaden bereits angerichtet, sobald andere das Material sehen - KI-Kennzeichnung hin oder her.

Etwas größere Hoffnungen setzt der Mozilla-Bericht in unsichtbare Wasserzeichen, die von Maschinen gelesen werden können. Kryptografische Markierungen lassen sich schwerer manipulieren oder ganz entfernen, ohne die Datei zu zerstören. Allerdings bräuchte es dafür einheitliche technische Standards, um Inhalte plattformübergreifend zu markieren und zu erkennen. Dafür gibt es erste Ansätze, etwa die Coalition for Content Provenance and Authenticity (C2PA), der Google, Microsoft und Adobe angehören. Gleichzeitig arbeiten Tech-Konzerne aber auch an eigenen Lösungen, die ein Wirrwarr an Wasserzeichen zur Folge haben könnten.

Ein riesiges, unfreiwilliges Sozialexperiment

"Sichtbare Labels oder unsichtbare Wasserzeichen sind kein Allheilmittel, sondern allenfalls ein Baustein unter vielen in der Steuerung von KI", sagt Molavi. "Man darf nicht denselben Fehler machen wie die Tech-Konzerne und glauben, dass es für jedes Problem nur eine technische Lösung geben kann." Sie hält die bisherigen Versuche der Plattformen für einen kleinen Schritt auf einem langen Weg. Freiwillige Selbstregulierung allein habe leider noch nie ausgereicht. Es brauche wirksame Regulierung, die kontrolliert und durchgesetzt werde.

2024 stehen Wahlen in mehr als 60 Ländern an, Donald Trump könnte erneut US-Präsident werden. Bereits ohne generative KI waren die Wahlkämpfe 2016 und 2020 geprägt von Lügen, Propaganda und Desinformation. Die Technologie existiere nicht in einem Vakuum, sagt Molavi. "Sie trifft auf eine Social-Media-Welt, in der Algorithmen emotionalisierende und extreme Inhalte bevorzugen. In einem solchen Ökosystem gehen KI-Fakes besonders schnell viral."

Die Forscherin sieht KI-Unternehmen und Plattformen in der Pflicht. Das alte Facebook-Motto "Move fast and break things" dürfe sich nicht wiederholen. "Es kann nicht Aufgabe der Forschenden und Nutzerinnen sein, Risiken aufzuzeigen und Lösungen zu erarbeiten", sagt Molavi. "Mir kommt es manchmal vor, als seien wir Teil eines großen Experiments mit Hunderten Millionen unfreiwilliger Beta-Tester."

Zur SZ-Startseite
TEASER

SZ PlusGerechtigkeit
:Warum Opa umziehen sollte

Ältere Menschen leben oft allein in vier Zimmern oder in Einfamilienhäusern. Das verknappt den Markt für junge Familien. Lässt sich das nicht besser verteilen? Höchste Zeit für ein paar Vorschläge.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: