Millionen Menschen werden in ihrem Facebook-Newsfeed bald Warnhinweise sehen. Einige Nutzer werden die Information wohl ignorieren, andere dürften gereizt oder wütend reagieren. Ein Großteil, so hofft jedenfalls Facebook, wird nachdenklich werden. "Hilf deinen Freunden und deiner Familie, Fehlinformationen zum Coronavirus zu identifizieren", steht dann dort. Es folgen eine Aufforderung zum Teilen und ein Link zur Weltgesundheitsorganisation.
Den Hinweis setzt Facebook aber nicht irgendwelchen Nutzern vor, sondern nur jenen, die zuvor mit Fehlinformationen zum Coronavirus interagiert haben. Wer einen Beitrag gelikt, geteilt oder kommentiert hat, wird gewarnt, sobald Faktenprüfer den zugrundeliegenden Artikel als irreführend oder falsch eingestuft haben und Facebook die Desinformation für so gefährlich hält, dass es den Beitrag entfernt hat. Zum ersten Mal zeigt Facebook solche Nachrichten im Nachhinein an, als Reaktion auf früheres Verhalten.
"Teile einen Link zur Website der Weltgesundheitsorganisation, die eine Liste gängiger Gerüchte rund um das Virus zusammengestellt hat", fordert Facebook seine Nutzer auf. Dort stellt die WHO etwa richtig, dass sich Covid-19 nicht über den Mobilfunkstandard 5G ausbreiten kann, Knoblauch keine Infektionen verhindert und weder Hitze noch Kälte die Viren zuverlässig töten. Falschnachrichten wie diese wurden teils viele Millionen Mal weiterverbreitet.
In der aktuellen Situation ist Desinformation noch gefährlicher als sonst. Denn Menschen, die Angst haben, reagieren heftiger und unüberlegter. In Großbritannien wurden Dutzende Mobilfunkmasten beschädigt, nachdem Verschwörungstheoretiker einen Zusammenhang zwischen 5G und Covid-19 herbeifantasiert hatten. Verharmlosung kann sogar tödlich sein: Wenn Menschen glauben, sie seien garantiert gesund, weil sie zehn Sekunden lang die Luft anhalten können, verhalten sie sich womöglich sorgloser - und stecken Alte oder Vorerkrankte an.
Zunächst will Facebook Nutzer nicht explizit darauf hinweisen, dass sie mit Desinformation in Kontakt gekommen sind. Eine Sprecherin sagt aber, das Unternehmen werde unterschiedliche Versionen und Formulierungen testen, die teils konkreter werden sollen. Womöglich erfährt man also, warum man den Hinweis sieht, oder erhält sogar eine Korrektur für die Fehlinformation, mit der man interagiert hat. Allerdings erklärt Facebook, seine eigenen Erhebungen hätten ergeben, dass solche konkreten Nachrichten den gegenteiligen Effekt auslösen könnten: Menschen glauben der Desinformation dann erst recht. Deshalb fokussiere man sich darauf, Menschen mit Fakten aus glaubwürdigen Quellen in Kontakt zu bringen.
Neue US-Studie zeigt: Falschnachrichten zu korrigieren kann helfen
Christoph Schott, Kampagnendirektor bei der NGO Avaaz, geht das nicht weit genug. "Unserer Meinung nach müsste Facebook den Leuten deutlicher machen, dass sie mit Fehlinformationen in Kontakt gekommen sind", sagt er. Die Organisation untersucht seit langem, wie sich Fehlinformationen auf Plattformen ausbreiten, und fordert die Betreiber auf, konsequenter dagegen vorzugehen. Schott fordert, dass alle Nutzer, die Desinformation auf Facebook gesehen haben, nachträglich gewarnt und auf entsprechende Korrekturen hingewiesen werden. "Die Studienlage ist mittlerweile eindeutig: Richtigstellungen können ein Umdenken bewirken."
Avaaz hat in den vergangenen Wochen mehr als 100 Fehlinformationen zum Coronavirus analysiert, die auf Facebook verbreitet wurden. Die Beiträge erreichten dort ein großes Publikum, obwohl die Artikel von unabhängigen Faktenprüfern widerlegt wurden. Avaaz geht davon aus, dass sie 117 Millionen Mal betrachtet wurden. Die Organisation kritisiert, dass Facebook teils zu lange brauche, um gefährliche Desinformation zu entfernen oder Warnhinweise unter den Beiträgen einzublenden. Selbst Korrekturen durch Medien, die Teil von Facebooks eigenem Faktencheck-Programm sind, veranlassten die Plattform nicht immer, zeitnah zu handeln.
"Wir haben seit Wochen immer wieder Gespräche mit Facebook geführt", sagt Schott. "Die nehmen das Problem sehr ernst. Wir glauben, dass wir einen großen Einfluss auf die aktuellen Änderungen hatten." Dem aktuellen Bericht von Avaaz liegt die "Correct the Record" Studie zweier US-Professoren zugrunde. Demnach helfen nachträgliche Korrekturen, dass Menschen die ursprüngliche Falschnachricht skeptischer betrachteten. Im Durchschnitt habe etwa die Hälfte der Studienteilnehmer aufgehört, an die Fehlinformation zu glauben.
"Facebook hat selbst einen Impfstoff gegen die Infodemie in der Hand", sagt Schotts Avaaz-Kollege Fadi Quran. Gegen Fehlinformationen über das Coronavirus vorzugehen, rette Leben. Das könne aber nur der erste Schritt sein. "Menschen, die der Gefahr von Fehlinformationen zu Masern, Fehlinformationen von Impfgegnern oder politischen Fehlinformationen ausgesetzt sind, verdienen ebenfalls Schutz. Wir bei Avaaz erwarten daher von Facebook die vollständige Umsetzung von 'Correct the Record' in den nächsten Monaten."