Die Tech-Konzerne versprechen, die Wahlkämpfe der Welt vor schädlicher künstlicher Intelligenz (KI) zu schützen. Auf der Münchner Sicherheitskonferenz erklärten an diesem Freitag 20 vor allem US-amerikanische Konzerne gemeinsam, bei dem Thema zu kooperieren. Die freiwillige "Tech-Vereinbarung" ist eine Absichtserklärung mit Ideen, wie täuschende KI in der Politik eingedämmt werden soll. Der Fokus liegt darauf, Informationen zwischen den Unternehmen zu teilen, manipulative, mit KI erstellte Inhalte zu erkennen und einzudämmen, und darauf, die Öffentlichkeit aufzuklären.
Unterschrieben hat die Elite jener Unternehmen, die maßgeblich für die rasante KI-Entwicklung und ihre Anwendung verantwortlich sind. Dazu zählen Adobe, Amazon, Google, IBM, Meta, Snap, Microsoft, Tiktok und X. Auch mehrere jüngere, auf KI spezialisierte Unternehmen wie Anthropic und Open AI sind dabei.
Das findet Dana Rao, Justiziar des Adobe-Konzerns, auch das Besondere an dieser Allianz: "Die ganze Wertschöpfungskette für Inhalte arbeitet zusammen." Das habe es vorher nicht gegeben. "Keiner wusste von dem anderen", sagt der Jurist. Das werde sich nun ändern.
Darum geht es
2024 ist ein Superwahljahr weltweit. Mehrere Milliarden Menschen wählen in mehr als 50 Staaten. In den USA stehen Präsidentschaftswahlen an, in mehreren deutschen Bundesländern Landtagswahlen.
Neue sogenannte generative KI ermöglicht es, mit simplen Text-Befehlen täuschend echte Texte, Bilder und zunehmend auch Videos zu erzeugen. Befürchtet wird, dass mit generativer KI falsche Bilder, Videos oder Tonaufnahmen erstellt werden, in denen Politiker in vermeintlich kompromittierenden Situationen zu sehen oder hören sind. Die KI könnte sie zum Beispiel betrunken oder korrupt wirken lassen. Menschen könnten solche Inhalte aus politischen Gründen oder reiner Freude am Chaos kreieren.
Wie KI in Wahlkämpfen eingesetzt wird
Mit der Erklärung versuchen die Konzerne auch dem Eindruck entgegenzutreten, ihre eigene Technologie sei gefährlich für Demokratien und die freie Meinungsbildung. Denn just die Technologie, in deren Entwicklung eben jene Konzerne Milliarden investiert haben, steht in der Kritik. Erst an diesem Donnerstag hatte einer der Unterzeichner, das kalifornische Unternehmen Open AI, eine Software präsentiert, die Sprachbefehle in verblüffend realistisch wirkende Videos verwandeln kann. Ohne Sicherheitsmechanismen könnte man mit so einer Technologie wohl das Video eines Politikers in einer kompromittierenden Situation erstellen, die es in Wirklichkeit nie gegeben hat.
In den USA löste vor Kurzem die KI-generierte Stimme Joe Bidens Irritationen aus, die Bürger bei automatisierten Anrufen zu hören bekamen. Wer hinter der Fälschung steckt, ist bis dato unklar. Andere Politiker nutzen KI auf konstruktive Weise, wie das Wahlkampfteam des pakistanischen Präsidentschaftskandidaten Nawaz Sharif. Weil der im Gefängnis saß, vertonte sein Team Notizen, die er über seine Anwälte nach draußen übermittelt hatte, mit KI. So konnten seine Gedanken mit einer künstlichen, aber einigermaßen echt klingenden KI-Version seiner Stimme verbreitet werden.
Das versprechen die Konzerne
Die Konzerne versprechen nicht nur, untereinander Informationen auszutauschen, um manipulative KI-Inhalte besser zu erkennen. Sie wollen auch deren Erstellung erschweren und Möglichkeiten schaffen, Fälschungen mit Technik zu erkennen. So sollen Überwachungssysteme etwa auf sozialen Medien Alarm schlagen können, wenn Nutzer entsprechende Inhalte hochladen, und diese blockieren.
Adobe hat einen Standard entwickelt, mit dem sich digitale Wasserzeichen in Bild, Video- und Tonaufnahmen platzieren lassen. Dem Standard haben sich unter anderem Meta, Microsoft und Google angeschlossen. Die Dateien, sagt Rao, bekommen ein kleines Symbol. Wer darauf klickt, wird zu einer Webseite geführt, auf der etwa das manipulierte dem Originalbild gegenübergestellt wird. "Dann können sich die Nutzer selbst ein Bild machen", sagt Rao. Außerdem sagen die Unternehmen zu, schnell auf Kampagnen zu reagieren, in denen entsprechende Inhalte verbreitet werden und die Öffentlichkeit über das Problem aufzuklären.
"Dieses Jahr finden so viele wichtige Wahlen statt, da ist es unerlässlich, dass wir tun, was wir können, damit Menschen nicht von KI-generierten Inhalten getäuscht werden", sagt Nick Clegg, oberster Polit-Lobbyist des Facebook-Konzerns Meta und selbst ehemaliger britischer Vizepremier. Die Konzerne betonen mehrfach, dass sie den Kampf gegen manipulative KI nicht allein als ihre Aufgabe ansehen. Clegg sagt: "Diese Arbeit ist größer als ein Unternehmen allein und erfordert riesigen Aufwand in der Branche, in Regierungen und der Zivilgesellschaft."