Avaaz-Bericht:Wie Corona-Lügen auf Facebook florieren

Advocacy group, Avaaz, takes an army of 100 life-sized Zuckerberg cutouts to the Capitol lawn.

Die Kampagnen-Plattform Avaaz weist immer wieder mit Aktionen auf Probleme bei Facebook hin - wie im April mit Mark-Zuckerberg-Pappaufstellern.

(Foto: Saul Loeb/AFP)

Gefährliche Desinformation über das Coronavirus erreicht Millionen Facebook-Nutzer. Eine Studie zeigt das Ausmaß der Infodemie - und macht zwei konkrete Lösungsvorschläge.

Von Simon Hurtz

Zwei Videos zeigen, wie schwer es Facebook, Youtube und anderen Plattformen fällt, gefährliche Desinformation über das Coronavirus einzudämmen. Im Mai verbreitete sich "Plandemic" viral, ein professionell produziertes Video, in dem eine bekannte Impfgegnerin ein Potpourri an falschen Corona-Verschwörungserzählungen ausbreitet. Radikale Ideologen der QAnon-Bewegung streuten die Links in geschlossenen Facebook-Gruppen.

Auch beim zweiten Clip spielten Facebook-Gruppen und Facebooks Untätigkeit eine zentrale Rolle. Ende Juli brauchte das Netzwerk viele Stunden, bis es ein Video entfernte, das etliche gefährliche Fehlinformationen enthält und das Virus verharmlost. Den angeblich so intelligenten Algorithmen war offenbar nicht aufgefallen, dass Millionen Menschen die Desinformation wie wild teilten und ansahen.

Beide Beispiele stützen die These eines Berichts, den die spendenfinanziertes und seit Jahren mit dem Thema befasste Kampagnen-Plattform Avaaz am Mittwoch veröffentlicht hat. "Facebooks Algorithmus: Eine große Gefahr für die öffentliche Gesundheit" überschreibt die Organisation die Untersuchung. "Facebook versucht zwar, Fehlinformationen zu bekämpfen", sagt Kampagnendirektor Christoph Schott. "Trotzdem erreichen Seiten, die immer wieder Lügen und Verharmlosungen über das Coronavirus verbreiten, ein Millionenpublikum."

Sicher und gut informiert sollten die rund 2,5 Milliarden Facebook-Nutzer während der Pandemie sein, beteuert das Unternehmen. Doch Facebook scheitere daran, dieses Versprechen einzulösen, erklärt Avaaz. Im vergangenen Jahr habe ein Netzwerk aus Seiten, die regelmäßig gefährliche Desinformation über Gesundheitsthemen teilen, rund 3,8 Milliarden Abrufe erzielt.

Allerdings muss man die Zahl vorsichtig behandeln. Zum einen ist sie nur ein grober Schätzwert. Facebook zeigt nämlich nicht genau an, wie viele Nutzer ein Posting in ihrer Timeline sehen, Avaaz hat den Wert lediglich aus anderen Zahlen abgeleitet.

Zum anderen beziehen sich die 3,8 Milliarden auf sämtliche Inhalte, die das Netzwerk aus 82 Webseiten und 42 Facebook-Seiten verbreitet hat. Darunter sind nicht nur Lügen und verharmlosende Aussagen über Covid-19, sondern auch Artikel, die gar nichts mit dem Virus oder anderen Gesundheitsthemen zu tun haben. Die Zahl beschreibt also die Gesamtreichweite des Netzwerks, nicht aber die Verbreitung einzelner Beiträge.

Facebook nennt die Methodik auf Nachfrage hypothetisch und ungenau. Außerdem verkenne Avaaz die Gegenmaßnahmen, die Facebook schon eingeleitet habe. Zwischen April und Juni habe man rund sieben Millionen Beiträge gelöscht, die gefährliche Fehlinformationen über das Virus verbreiteten. Mehr als zwei Milliarden Menschen seien auf Informationen seriöser Gesundheitsorganisationen wie der WHO geleitet worden.

Schott verteidigt seine Hochrechnung mit Verweis auf die russische Desinformationskampagne im US-Wahlkampf 2016: "Die haben ja auch nicht ausschließlich Stimmung gegen Clinton gemacht, sondern sich mit anderen Inhalten eine große Reichweite aufgebaut und dann immer wieder Propaganda eingestreut." Netzwerke für Desinformation existierten oft seit Jahren, seien strategisch aufgebaut und miteinander verknüpft worden. Die Akteure helfen einander gegenseitig, bestimmte Artikel zu verbreiten. Teils wurden Inhalte, die Facebook gelöscht hatte, anderswo leicht abgewandelt neu veröffentlicht oder übersetzt. Diese Kopien fallen durch Facebooks Raster und erreichen teils mehr Menschen als der ursprüngliche Beitrag.

Auch Frank Ulrich Montgomery, Präsident des Weltärztebundes, sieht die Plattformen in der Pflicht. "Das Problem betrifft nicht nur Facebook, sondern auch Youtube und eigentlich alle sozialen Netzwerke", sagt er. "Es geht gar nicht nur um die Menschen, die völlig absurde Verschwörungserzählungen über Bill Gates glauben. Die kann man nicht ernst nehmen." Sorgen bereiteten ihm vor allem zwei Gruppen: "Das sind einmal die Impfverweigerer, die das Leben ihrer Kinder riskieren. Und jene Menschen, die daran zweifeln, dass Covid-19 gefährlich ist und etwa irreführende Vergleiche mit der Grippe verbreiten. Wenn solche Behauptungen einmal viral gehen, kann die Wissenschaft fast nichts tun, um das wieder einzufangen."

Avaaz macht zwei Lösungsvorschläge: "Correct the record" und "Detox the Algorithm". Im April begann Facebook, Nutzern Hinweise einzublenden, die zuvor mit Beiträgen interagiert hatten, die gefährliche Fehlinformationen über Covid-19 enthalten. Diese Warnungen müssten spezifischer werden und mehr Menschen angezeigt werden, fordert Avaaz. Bislang verweist Facebook allgemein auf die WHO, ohne Nutzern zu sagen, warum sie den Hinweis sehen, welchen Inhalt sie zuvor gelikt oder geteilt haben und warum Behauptungen falsch sind.

Schott verweist auf die angeblich eindeutige Studienlage: "Jede Untersuchung zu diesem Thema zeigt, dass konkrete Korrekturhinweise helfen können. Menschen glauben den Fehlinformationen dann deutlich seltener." Außerdem sei die Zielgruppe, die informiert wird, viel zu klein. "Ich verstehe ja, dass Facebook diese Hinweise zurückhaltend einsetzt, weil sie den Platz für Anzeigen wegnehmen", sagt Schott. "Aber überlegen Sie doch mal selbst: Wie oft klicken Sie wirklich auf 'Gefällt mir'? Den Großteil der Beiträge sieht man nur, ohne damit zu interagieren. Auch diese Menschen sollte Facebook nachträglich warnen und Richtigstellungen anzeigen."

Die zweite Forderung betrifft Facebooks Empfehlungsalgorithmen. Entgegen seiner eigenen Behauptung ist die Plattform alles andere als neutral: Sie behandelt nicht alle Beiträge gleich, sondern gewichtet selbst, schlägt Nutzern Inhalte vor, die sie interessieren könnten - darunter Videos wie den "Plandemic"-Clip und extremistische Propaganda. Oft funktionieren solche Inhalte sogar besonders gut, weil sie emotional wirken und Menschen zum Teilen verleiten. Der Algorithmus verschafft den Beiträgen dann zusätzliche Aufmerksamkeit. Zwar wertet Facebook Seiten ab, die wiederholt Inhalte teilen, die unabhängige Faktenprüfer als falsch einstufen. "Wie genau diese Drosselung funktioniert, wann sie greift, und wer davon betroffen ist, bleibt aber völlig intransparent", sagt Schott.

Dass Facebook aus Fehlern lernt, zeigt ein Video, das in der Nacht von Dienstag auf Mittwoch veröffentlicht wurde. Es ist der direkte Nachfolger des ersten "Plandemic"-Teils und enthält zahlreiche Lügen. Diesmal zögerte Facebook nicht, sondern reagierte: Es blockiert sämtliche Links auf das Video. Statt Millionen Menschen erreicht der Clip bislang nur ein paar Zehntausend - die vermutlich ohnehin nicht mehr für wissenschaftliche Argumente empfänglich sind.

Zur SZ-Startseite
Ryan Gellert

Patagonias Europa-Chef
:"Facebook muss komplett umdenken"

Patagonia war eine der ersten Firmen, die beim Werbeboykott gegen Facebook mitmachten. Europa-Chef Ryan Gellert erklärt, wie Mark Zuckerberg ihn zurückgewinnen kann.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: