bedeckt München 21°
vgwortpixel

Strategien gegen Corona-Falschinformationen:Löschen, berichtigen, verstecken

Coronavirus - Facebook

Über Kommunikationsplattformen im Netz werden massenhaft falsche Informationen zu Covid-19 verteilt. Die Unternehmen gehen mit unterschiedlichen Maßnahmen dagegen vor.

(Foto: Andre M. Chang/dpa)

Nach Facebook und Youtube will nun auch Twitter stärker gegen falsche Behauptungen zu Covid-19 vorgehen. Das Arsenal der Tech-Unternehmen ist jedoch eingeschränkt.

Das Internet muss mal wieder eine Menge aushalten dieser Tage. Wegen der Kontaktbeschränkungen sind mehr Leute als je zuvor und länger als je zuvor im Netz. Dort suchen sie vor allem zwei Dinge: Informationen über die Krisenlage und Austausch mit anderen Menschen, die sie gerade nicht von Angesicht zu Angesicht sehen dürfen. Beides finden sie in sozialen Medien wie Facebook, Youtube und Twitter oder Messengern wie Whatsapp, Telegram und Discord.

Viel Zeit, viel Angst und ein großes Mitteilungsbedürfnis - das führt derzeit dazu, dass in den sozialen Medien eine Menge hanebüchene Theorien über das Virus und staatliche Gegenmaßnahmen kursieren. Während die Social-Media-Unternehmen vor wenigen Jahren noch behaupteten, sie seien nicht für die Inhalte verantwortlich, die auf den Plattformen geteilt werden, versuchen sie heute durchaus, solche Falschinformationen zu bremsen.

Aktuelles zum Coronavirus - zweimal täglich per Mail oder Push-Nachricht

Alle Meldungen zur aktuellen Lage in Deutschland und weltweit sowie die wichtigsten Nachrichten des Tages - zweimal täglich mit SZ Espresso. Unser Newsletter bringt Sie morgens und abends auf den neuesten Stand. Kostenlose Anmeldung: sz.de/espresso. In unserer Nachrichten-App (hier herunterladen) können Sie den Espresso oder Eilmeldungen auch als Push-Nachricht abonnieren.

Ein aktuelles Beispiel: In den USA wurde ein Video namens "Plandemic" viel geteilt, in dem eine Mikrobiologin und bekannte Impfgegnerin ein wildes Potpourri an Corona-Verschwörungsthesen präsentiert. Die Plattformen reagierten. Facebook löschte das Video, Youtube machte es schwieriger, es zu finden, Twitter unterdrückte einen Hashtag, unter dem es geteilt wurde.

Diese Maßnahmen nutzen Plattformen derzeit, um Desinformation zu Covid-19 einzudämmen:

Facebook

Mittlerweile ist Facebook das Unternehmen mit den wohl ausgefeiltesten Regeln zu Falschinformationen. Eine Schlüsselaufgabe bei der Bekämpfung von Coronavirus-Falschinformationen übernehmen menschliche Fact-Checker: Das Unternehmen arbeitet weltweit mit rund 60 Organisationen zusammen, die Posts mit fragwürdigen Behauptungen überprüfen.

Stellt sich heraus, dass Behauptungen falsch sind, weist Facebook Menschen, die den Inhalt zu teilen versuchen, auf die Fakten-Checks hin. Menschen, die einen fragwürdigen geteilten Inhalt sehen wollen, werden ebenfalls auf den Fact-Check hingewiesen. Seit einigen Wochen geht Facebook noch einen Schritt weiter: Jetzt soll jeder, der mit fragwürdigen Corona-News interagiert hat, also Likes für solche Beiträge verteilt, einen Post weiterverbreitet oder auf einen Link geklickt hat, im Nachhinein aufgeklärt werden. Diesen Nutzern schickt Facebook auf eine Seite, die Fakten-Checks zu Corona-Mythen anbietet. Auch auf Facebooks eigenen Corona-Info-Seiten sind die Fakten-Checks integriert.

Eine wichtige Ausnahme: Aussagen und Beiträge von Politikern werden nicht auf ihre Richtigkeit geprüft, auch nicht, wenn sie offensichtlich falsch sind.

Wenn Facebook beschließt, dass ein Inhalt nicht nur falsch ist, sondern möglicherweise dazu führen könnte, dass Menschen zu Schaden kommen, dann wird dieser von der Plattform gelöscht. Facebook nennt als Beispiel Aufrufe, Chlor zu trinken, um Erkrankte vom Virus zu heilen.

Am Dienstag erklärte das Unternehmen, man habe allein im April 50 Millionen Beiträge mit falschen oder zweifelhaften Beiträgen über das Coronavirus mit Warnhinweisen versehen. Das zeige Erfolg. In 95 Prozent der Fälle klickten die Nutzer den Link nicht an, wenn sie die Warnung sähen. Die Basis für die Hinweise hätten 7500 Artikel von Fakten-Checkern geliefert, hieß es weiter. Zudem seien 2,5 Millionen Beiträge entfernt worden, in denen es um den Verkauf von Masken, Desinfektionsmitteln oder Covid-19-Tests gegangen sei.

Instagram

Wie bei einem Tochterunternehmen von Facebook zu erwarten, fallen auch die Maßnahmen ähnlich aus wie beim Mutterunternehmen. Auch hier werden die Prüfungen aus dem Faktencheck-Netzwerk von Facebook angezeigt, wenn Nutzer mit umstrittenen Beiträgen interagieren. Als "gefährlich" definierte Inhalte werden gelöscht. Ein Unterschied: In Hashtags und der "Entdecken"-Rubrik auf Instagram (die auf Facebook keine Rolle spielen) werden von Fakten-Checkern für falsch befundene Inhalte nicht angezeigt.

Whatsapp

Whatsapp ist zwar ebenfalls eine Tochter von Facebook, die angesprochenen Maßnahmen funktionieren hier jedoch nicht - aus dem einfachen Grund, dass Facebook nicht weiß, was auf Whatsapp geteilt wird. Alle Nachrichten sind Ende-zu-Ende-verschlüsselt, Whatsapp kann ihren Inhalt also nicht mitlesen.

Um die massenhafte virale Verbreitung von Gerüchten und Desinformation einzuschränken, hat Whatsapp die Weiterleitung von Nachrichten beschränkt. Nachrichten, die schon mehrfach weitergeleitet wurden - Whatsapp kennzeichnet diese mit einem Doppel-Pfeil - können seit dem 7. April nur noch an einzelne Kontakte verschickt werden und nicht mehr an mehrere Empfänger.

Youtube

Einem aktuellen Bericht der Fakten-Checker von Correctiv zufolge stammt fast die Hälfte der fragwürdigen Inhalte, die ihnen zur Prüfung vorgelegt werden, von Youtube. Das Unternehmen reagiert auf dieses Problem mit einer Mischung aus Aufklärung, Abwertung von Beiträgen und Sperrungen. Wer nach Covid-19 oder ähnlichen Begriffen sucht, findet vorrangig Videos seriöser Medien oder anderer verlässlicher Quellen. Das Unternehmen blendet Informationsboxen ein, die auf die Weltgesundheitsorganisation und nationale Gesundheitsbehörden verweisen. Seit Ende April gibt es in den USA ein Factcheck-Programm, für das Youtube auf die Einschätzungen unabhängiger Medien oder Organisationen zurückgreift. Ob und wann diese Maßnahme auch in Deutschland eingeführt wird, teilt Youtube nicht mit.

Wenn hochgeladene Videos gegen Youtubes Richtlinien verstoßen, werden sie entfernt. Die Schwelle liegt in der aktuellen Situation etwas niedriger als bei anderen Themen: Normalerweise geht von Desinformation keine unmittelbare Gefahr aus - in einer Pandemie kann Verharmlosung oder bewusste Irreführung aber tödlich sein. Deshalb erklärt Youtube, man werde entschiedener durchgreifen.

Trotzdem bleiben jede Menge Videos online, die Lügen und gefährliches Halbwissen enthalten. Teils werden sie viele Millionen Mal abgerufen, obwohl Youtube die Sichtbarkeit einschränkt und sie etwa Nutzer nicht mehr vorgeschlagen werden. Viele Nutzer schicken sich die Links aber auf anderen Kanälen oder suchen aktiv nach solchen Videos. Damit hebeln sie die Empfehlungslogik der Plattform aus.

Twitter

Mitte März hatte Twitter bereits seine Regeln verschärft. Seitdem werden Tweets mit Inhalten, die direkt gegen offizielle Empfehlungen zur öffentlichen Gesundheitsvorsorge gerichtet sind als "schädlich" eingestuft und gelöscht. Neu ist seit diesem Dienstag, dass Twitter auch gegen Inhalte vorgehen will, die der offiziellen Linie zwar nicht direkt widersprechen, die aber dennoch potentiell Schaden anrichten könnten. Darunter dürfte ein Großteil der Verschwörungstheorien zu Covid-19 fallen, die im Netz kursieren. Nutzern wird zu diesen Inhalten ein Hinweis angezeigt, dass es sich um eine umstrittene Behauptung handele. Dazu bekommen sie einen Link auf eine Seite mit gesicherten Informationen zu Covid-19.

Twitter betonte, dass diese Regeln sowohl rückwirkend als auch für Tweets führender Politikern gelten sollen. Besonders US-Präsident Donald Trump hatte in der Vergangenheit immer wieder irreführende Beiträge geteilt.

Telegram, Discord und Co.

In den vergangenen Jahren hat sich ein Teil der Kommunikation im Netz von öffentlich zugänglichen Plattformen wie Facebook in geschlossene Gruppen oder Messenger wie Telegram, Discord oder Signal verlagert. Dort kommunizieren die Mitglieder nur untereinander. Betreiber der Gruppen und Kanäle können oder wollen nicht eingreifen und lassen den Diskussionen freien Lauf.

Vor allem Telegram hat sich in den vergangenen Wochen als alternative Kommunikationsplattform etabliert. Dutzende lokale und regionale Ableger der "Corona-Rebellen" organisieren über den Messenger Demonstrationen. Teils verbreiten Rechtsradikale dort auch Verschwörungsmythen oder rufen zum bewaffnetem Widerstand auf.

© SZ/mri/jab
Bill Gates

Verschwörungsmythen
:Diese Feindbilder einen die Corona-Querfront

Auf den "Hygiene-Demos" finden sich Rechts- und Linksradikale, Antisemiten und Esoteriker. Der Kitt dieser Allianz sind Verschwörungsmythen, die ihren Anfang im Netz nehmen.

Von Simon Hurtz

Lesen Sie mehr zum Thema

Zur SZ-Startseite