Nancy Pelosi:Warum sich Facebook weigert, ein manipuliertes Video zu löschen

Nancy Pelosi

Die demokratische Politikerin Nancy Pelosi ist Sprecherin des US-Repräsentantenhauses.

(Foto: AP)
  • Ein manipuliertes Video der US-Politikerin Nancy Pelosi verbreitet sich auf Facebook.
  • Die Aufnahme wurde absichtlich verlangsamt, sodass die Demokratin betrunken wirkt.
  • Facebook will die offensichtliche Manipulation nicht löschen: Nutzer, so sagt es ein Sprecher der Plattform, sollten selbst entscheiden, wem oder was sie glauben.

Von Simon Hurtz

Welchen Einfluss gezielte Desinformationskampagnen auf die Europawahl hatten, ist unklar. Studien der Uni Oxford und der NGO Avaaz kommen zu unterschiedlichen Ergebnissen. Keinen Zweifel gibt es dagegen, dass politische Akteure mit Falschbehauptungen Stimmung machen wollen. Propaganda existiert seit Tausenden Jahren, aber noch nie hat sie sich so schnell verbreitet wie heute.

Das jüngste Beispiel zeigt besonders eindrücklich, wie leicht die Reichweite sozialer Netzwerke missbraucht werden kann - und wie schwer es Facebook fällt, den Missbrauch zu verhindern. Seit vergangener Woche haben Millionen Menschen ein Video der demokratischen US-Politikerin Nancy Pelosi gesehen. Es ist die Aufnahme ihrer Rede bei einer Veranstaltung des liberalen Thinktanks "Center for American Progress" - mit einer entscheidenden Änderung: Das Video läuft etwas langsamer, sodass die Sprecherin des US-Repräsentantenhauses betrunken wirkt.

Allein die Version der Facebook-Seite Politics WatchDog wurde knapp drei Millionen Mal angeschaut und 50 000 Mal geteilt. Ein Großteil der 30 000 Kommentare enthält Beleidigungen und persönliche Angriffe auf Pelosi. Hochrangige Republikaner, darunter Trump-Berater Rudy Giuliani, teilten den Link auf Twitter. Das Video ist eine offensichtliche und bewusste Manipulation. Pelosi trinke gar keinen Alkohol, sagt ihre Tochter Christine. Dennoch weigert sich Facebook, das Posting zu löschen.

Es gebe keine Richtlinie, die vorschreibe, dass Nutzer nur wahre Informationen auf Facebook teilen dürften, sagte ein Sprecher. Stattdessen schränkt Facebook die Reichweite ein und zeigt den Beitrag weniger Menschen in ihren Newsfeeds an. Außerdem sehen Nutzer einen Hinweis, dass unabhängige Faktenprüfer die Aufnahme für manipuliert halten. Neben dem Video verlinkt Facebook auf weiterführende Artikel. Trotzdem haben übers Wochenende Hunderttausende weitere Facebook-Nutzer die Manipulation angeschaut, kommentiert und verbreitet.

"Wir denken, dass es wichtig ist, dass Menschen selbst entscheiden, was sie glauben sollen", sagte Facebooks zuständige Managerin Monika Bickert in einem eine CNN-Interview. Facebooks Job sei es, ihnen akkurate Informationen zu liefern, auf deren Grundlage sie entscheiden könnten. Diese Strategie habe angeblich gefruchtet: Mittlerweile unterhielten sich Facebook-Nutzer darüber, dass es sich um ein manipuliertes Video handele. Zumindest die Kommentare bei Politics WatchDog lassen diesen Rückschluss nicht zu, hier dominieren nach wie vor Hohn und Spott über die vermeintlich betrunkene Pelosi.

Facebooks Verhalten steht im Gegensatz zu dem von Youtube: Bereits am Donnerstag entfernte die Plattform alle Versionen des Videos. Die Fälschungen verletzten eindeutig Youtubes Richtlinien, welche Inhalte hochgeladen werden dürften, sagte ein Sprecher.

Die Informationsapokalypse lässt auf sich warten

Aus dem Vorfall lassen sich zwei Dinge lernen: Erstens sind manipulierte Videos auch im politischen Kontext eine reale Gefahr - allerdings auf eine andere Art und Weise, als die Berichterstattung im vergangenen Jahr nahelegelegt hatte. 2018 schürten Dutzende Texte Angst vor sogenannten Deepfakes. Auch die SZ veröffentlichte mehrere Artikel und Videos zu diesen komplett gefälschten, aber täuschend echten Videos. Die Warnungen sind nicht grundsätzlich falsch, und das Missbrauchspotenzial ist enorm. Das zeigen manipulierte Porno-Videos, in die Gesichter bekannter Schauspielerinnen hineinmontiert werden. Aber die politische Informationsapokalypse ist noch nicht eingetreten.

Größeren Schaden als perfekte, künstlich erzeugte Fälschungen haben bislang reale, aber geringfügig veränderte Videos angerichtet. Im vergangenen Jahr teilte das Weiße Haus ein manipuliertes Video, das den CNN-Journalisten Jim Acosta zeigt, wie er während einer Pressekonferenz versucht, eine Mitarbeiterin des Weißen Hauses davon abzuhalten, ihm das Mikrofon wegzunehmen. Der Vorfall löste große Aufregung aus, zwischenzeitlich wurde Acosta die Akkreditierung entzogen. Auch die Demokratin Alexandria Ocasio-Cortez wurde Opfer eines manipulativen Video-Zusammenschnitts, der ihre Interview-Antworten aus dem Kontext riss. Die Macher rechtfertigten die Fälschung später als "Satire".

"Facebook leugnet seine Verantwortung als wichtigste Nachrichtenquelle der Welt"

Die zweite Erkenntnis betrifft Facebook: Das Unternehmen handelt strikt nach den Regeln, die es sich selbst auferlegt hat. Gelöscht wird nur, was gegen Facebooks Gemeinschaftsstandards verstößt - also in erster Linie eindeutig strafbare Inhalte (ob das immer funktioniert, ist eine andere Frage). Fragwürdigen Manipulationen und Falschbehauptungen bleiben online. Hier verlässt sich Facebook auf die Zusammenarbeit mit Faktenprüfern, statt selbst Verantwortung für Inhalte zu übernehmen. Das gilt selbst für Holocaustleugnung, die Facebook in den USA nicht entfernen will. Im Gegensatz zu Deutschland ist es dort legal, den Völkermord der Nazis anzuzweifeln.

Facebook sei nicht im Nachrichtengeschäft, sondern im Social-Media-Business, sagte Managerin Bickert bei CNN. Journalistischen Maßstäben wird Facebook tatsächlich nicht gerecht: Kein ansatzweise seriöses Medium käme auf die Idee, ein offensichtlich und mit bösartiger Absicht manipuliertes Video zu veröffentlichen oder stehen zu lassen. "Das ist lächerlich", schreibt Kara Swisher, Kolumnistin der New York Times. Facebook sei hervorragend darin, die Grenzen zwischen einfachen Fehlern und bewusster Irreführung zu verwischen. "Damit leugnet es seine Verantwortung als wichtigste Nachrichtenquelle der Welt."

Zur SZ-Startseite
Worker gathers items for delivery at Amazon's distribution center in Phoenix

Künstliche Intelligenz
:Diese Technologien können Angst machen

Unternehmen überwachen Mitarbeiter und Maschinen entscheiden über Meinungsfreiheit. Vier Beispiele zeigen, dass technischer Fortschritt auch nach hinten losgehen kann.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: