Außenansicht Das Vertrauen erodiert

Thilo Hagendorff, 30, ist Medienwissenschaftler am Internationalen Zentrum für Ethik in den Wissenschaften an der Universität Tübingen und Mitglied im „Forum Privatheit“.

(Foto: privat)

Audio- und Video-Fakes im Internet werden immer perfekter - mit fatalen Folgen für demokratische Prozesse. Umso wichtiger werden seriöse Medien als Aufbereiter zuverlässiger Informationen. Sie brauchen Mechanismen, um Fälschungen zu erkennen.

Von Thilo Hagendorff

Dreißig gesprochene Sätze genügen. Damit kann ein Lernalgorithmus einen beliebigen Text in eine Audiodatei verwandeln, der Stimme des Sprechenden zum Verwechseln ähnlich. Es gibt bereits kostenlose Plattformen, die dies anbieten. Je mehr Sprachaufzeichnungen von einer Stimme man der Plattform zur Verfügung stellt, desto besser wird die digitale Kopie. Zugegeben, noch klingt die künstliche Sprache etwas blechern. Aber die Technik wird sich in naher Zukunft perfektionieren. Dann ist die digitale, synthetische Stimme nicht mehr von der echten zu unterscheiden und es lässt sich von jeder Person, von der genügend Stimmaufzeichnungen zum Trainieren der Lernalgorithmen vorliegen, eine realistische Fälschung der Stimme anfertigen.

Damit werden in absehbarer Zeit große Teile der gesprochenen Telekommunikation einem fundamentalen Zweifel unterliegen. Schließlich kann man nie wissen, ob man es nun mit einer echten Person oder doch mit einer mittels Algorithmus nachgebildeten Stimme zu tun hat. Und was für Audioaufzeichnungen gilt, das gilt ebenso für die Inhalte von Videos. Auch diese können so gut gefälscht sein, dass der Unterschied zum Original kaum auffällt.

Zum ersten Mal breiter in der Öffentlichkeit thematisiert wurde dies, als ein Nutzer der Plattform Reddit unter dem Pseudonym "Deepfakes" ein Porno-Video veröffentlichte, bei dem das Gesicht der Darstellerin durch jenes der Schauspielerin Gal Gadot ersetzt worden war. Weitere Prominente waren betroffen, darunter auch Scarlett Johansson und Emma Watson. Dem Beispiel von "Deepfakes" folgten weitere Nutzer, die eine Vielzahl gefälschter Porno-Clips ins Netz stellten.

Noch ist die Erstellung von Fake-Audios und -Videos mit einem gewissen Aufwand verbunden. Mit fortschreitender Entwicklung der entsprechenden Technik ist aber damit zu rechnen, dass dies immer einfacher vonstatten gehen wird. Damit wird auch die Verbreitung solcher Fake-Inhalte massiv ansteigen. Es lassen sich dann nicht nur Fälschungen von Politikern oder Schauspielern erstellen, sondern auch von Bekannten, Ex-Freunden, Arbeitskollegen oder Mitschülern.

Problematisch ist, dass allein das Bewusstsein darüber, dass Texte, Bilder, Videos oder Audios gefälscht sein könnten, nicht ausreicht, um den damit verbundenen Problemen zu begegnen. Der aus der Kognitionspsychologie bekannte Bestätigungsfehler - auch "confirmation bias" genannt - sorgt dafür, dass Menschen sich gerade auf solche Informationen fokussieren, die ihre Einstellungen und ihr Weltbild bestätigen. Davon abweichende Informationen werden infrage gestellt - oder gleich ganz ignoriert. Ein gesellschaftlicher Lernprozess im Umgang mit echten und gefälschten Nachrichten ist deshalb notwendig. Bis dieser Lernprozess vollzogen ist, können gefälschte Videos das Potenzial entfalten, Chaos anzurichten: Autoritäre Staaten können über die eigenen Medienanstalten Oppositionspolitiker und andere unliebsame Personen mit gefälschten Videos diskreditieren, gefälschte Statements hochrangiger Politiker können diplomatische Krisen, im schlimmsten Falle kriegerische Konflikte auslösen. Aber auch Privatpersonen könnten kompromittierende Videos mit den Gesichtern ihrer Ex-Partner fälschen, Cybermobbing kann durch Fake-Videos eine verschärfte Dimension erreichen. Den Möglichkeiten gezielter Desinformation sind dann kaum Grenzen gesetzt. Die Verwirrung wird total - mit weitreichenden Folgen für die politische Kultur.

Damit politische Debatten und demokratische Prozesse zu vernünftigen Entscheidungen und Ergebnissen führen können, bedarf es einer gemeinsam geteilten Auffassung von Wirklichkeit. Wurde Wirklichkeit früher durch vergleichsweise wenige Medien aufbereitet, die gewissen journalistischen Normen unterlagen, so gibt es heute eine Vielzahl an Verbreitungsmedien, die nicht unmittelbar den Kodizes des Presserechts unterliegen und - im Zusammenspiel mit den Personalisierungsmethoden der bekannten Social-Media-Plattformen - zu einer Fragmentierung der öffentlichen Wahrnehmung führen. Fake-Medien werden diese Fragmentierung und die Beliebigkeit von Wirklichkeitsauffassungen weiter verstärken. Damit stellen sie ein ernstes Problem für eine funktionierende Demokratie dar. Die Frage ist: Kann die Gesellschaft lernen, mit dieser Unsicherheit und Beliebigkeit umzugehen?

Software kann gefälschte Videos zuverlässiger entlarven als der Mensch

In wenigen Jahren wird weithin bekannt sein, dass Video- und Audiomaterial ähnlich leichthändig gefälscht werden kann wie Texte und Bilder. Dann wird sich auch das Chaospotenzial von Fake-Medien verringern. Allerdings kann im Zuge dessen eine Kultur des Misstrauens gegenüber jeglichen Nachrichten entstehen, da selbst Medienanstalten nie sicher sein können, ob ihnen zugespieltes Audio- oder Videomaterial echt oder gefälscht ist.

Es müssen angesichts der technischen Möglichkeiten von Fake-Medien neue Bewertungsmechanismen für die Richtigkeit von Informationen gefunden werden. Technische Verfahren, die - ironischerweise - wiederum auf maschinellem Lernen basieren, können Fälschungen identifizieren. Solche Bewertungsmechanismen lernen anhand von Trainingsdateien Eigenschaften von vorab gekennzeichneten gefälschten und echten Videos zu erkennen. Anschließend kann das erlernte Wissen auf andere Videos angewendet werden. Die Software liefert dabei weitaus akkuratere Ergebnisse als menschliche Zuschauer. Ein weiterer Ansatz zur Erkennung von Fälschungen liegt in der Verwendung der Blockchain-Technologien. In der Blockchain könnten die "Fingerabdrücke" verifizierter Videos dezentral gespeichert werden. Manipulationen an einem verifizierten Video zögen eine Veränderung dieses Fingerabdrucks nach sich. Beim Abgleich des veränderten Fingerabdrucks mit dem fälschungssicher in der Blockchain gespeicherten Fingerabdruck würde der Manipulationsversuch auffallen.

Die größte Bedrohung durch mediale Fälschungen liegt in der Erosion des gesellschaftlichen Vertrauens. Obwohl es weiterhin Medien geben wird, die Nachrichten auch in Zeiten von gefälschten News wahrheitsgetreu aufbereiten, wird die Praxis, die Echtheit von Nachrichten anzuzweifeln, ein beliebtes Mittel der Medienkritik werden. Dennoch - oder eigentlich: gerade deswegen - werden seriöse Medien als verlässliche Aufbereiter und Vermittler von Ereignissen für die demokratische Willensbildung in Zukunft noch wichtiger. Denn Demokratien brauchen eine gemeinsame Wissensbasis, um funktionieren zu können - gerade dann, wenn die Fälschung perfekt wird.