Im März verbreitete sich in Deutschland die Sprachnachricht einer Frau, die sich "Elisabeth, die Mama von Poldi" nannte. Angeblich habe die Uniklinik Wien herausgefunden, dass Ibuprofen die Gefahr erhöhe, schwer an Covid-19 zu erkranken. Obwohl die Forscher dementierten, verunsicherte die Nachricht viele Menschen. Der Kanal, auf dem die Falschbehauptung die Runde machte, war Whatsapp. Für Ann Cathrin Riedel, Vorsitzende des Vereins für liberale Netzpolitik Load, war das nur der Anfang: "Dass sich Desinformationen auch auf Messengern nicht nur zügiger, sondern auch in höherer Schlagzahl in Deutschland verbreiten werden, ist abzusehen", schreibt sie in einer Analyse, die sie für die Friedrich-Naumann-Stiftung, eine parteinahe Stiftung der FDP, verfasst hat. Im Interview erklärt Riedel, welche Messenger besonders betroffen sind, warum sie den Begriff Fake News meidet und was Nutzer tun können.
SZ: Wenn von Desinformation die Rede ist, geht es fast immer um Facebook oder Youtube. Warum beschäftigen Sie sich auf 30 Seiten nur mit Messengern?
Ann Cathrin Riedel: Messenger haben wir in diesem Zusammenhang bislang kaum im Blick. Das ist ein Fehler. In Ländern wie Indien und Brasilien hat sich in den vergangenen Jahren gezeigt, wie leicht und schnell sich Desinformationen über Messenger verbreiten. Mit der Corona-Pandemie kommt das Bewusstsein für dieses Problem langsam auch in Deutschland an. Da gab es zum Beispiel die Sprachnachricht von "Elisabeth, die Mama von Poldi", die vor Ibuprofen warnte und über Whatsapp verschickt wurde. Jeden Tag nutzen Milliarden Menschen Whatsapp, Telegram oder den Facebook-Messenger, aber was dort passiert, ist von außen kaum einsehbar. Dort kommt es zu anderen Gruppendynamiken als in öffentlichen Räumen wie Facebook oder Youtube. Messenger bieten einen gefährlichen Nährboden für Desinformation.
Wie reagieren die Betreiber? Gibt es einen Messenger, den Sie für besonders gefährlich halten?
Facebook versucht zumindest zu verhindern, dass Whatsapp für Desinformation, Propaganda und Hasskampagnen missbraucht wird. Nachrichten lassen sich nur noch eingeschränkt weiterleiten und werden markiert. Die Inhalte selbst sind verschlüsselt, dagegen kann Whatsapp also nichts tun. Das sollte auch so bleiben. Telegram zeigt weniger guten Willen. Viele Rechte und Verschwörungsideologen haben sich dorthin zurückgezogen und nutzen Gruppen und Kanäle, um ihre Botschaften massenhaft zu verbreiten. Während der Corona-Krise wurde das besonders deutlich. Telegram löscht solche offenen Kanäle nur selten, auch wenn offensichtlich rechtswidrige Inhalte geteilt werden.
Sie meiden in Ihrem Papier den Ausdruck Fake News, obwohl er weit verbreitet ist. Was stört Sie daran?
Der Begriff wird inflationär und leichtfertig genutzt. Oft geht es nur darum, den politischen Gegner zu diffamieren. Donald Trump diskreditiert damit etwa die freie Presse, das halte ich für gefährlich. Der Ausdruck Fake News passt auch gar nicht zu dem Phänomen, das ich untersuche. Es geht eben nicht um schlampige Recherche, sondern um gezielte Manipulation. Die Verbreiter wollen Zwietracht säen und Gesellschaften spalten. Wenn man Strategien gegen Desinformationen finden will, muss man präzise in der Sprache sein.
In welchen Formen kommt Desinformation daher?
Wenn wir Falschnachrichten hören, denken wir häufig an Texte. Dabei ist ein Großteil der verbreiteten Desinformation visuell, umfasst also Fotos, Grafiken, Videos oder Memes. Diese Formate lassen sich viel schneller konsumieren und teilen, teils müssen sie nicht mal übersetzt werden. Ein journalistisches Projekt aus Brasilien, Comprova, hat Desinformation auf Whatsapp in Brasilien analysiert. Dabei kam heraus, dass vornehmlich Bilder, dann Videos und immer mehr Sprachnachrichten geteilt werden. Oft ist auch nicht alles falsch, sondern wesentliche Informationen werden weggelassen oder aus dem Zusammenhang gerissen.
Wer verbreitet Desinformation und mit welchen Motiven?
Grundsätzlich kann jeder zum Verbreiter werden. Gerade bei Memes sehen wir häufig, dass Menschen sie teilen, weil sie die Montagen für lustig halten. Dabei verbreiten sie häufig rassistische und antisemitische Stereotype, ohne es zu merken. Aber natürlich mischen auch Staaten mit. Sie setzen auf orchestrierte Kampagnen, um andere Gesellschaften zu destabilisieren. Das gab es schon immer, nur funktionieren solche Aktionen im digitalen Zeitalter noch perfider und effizienter. Russland und China sind da sehr aktiv. Und zwar nicht nur in den USA, sondern durchaus auch in Deutschland, etwa über staatlich finanzierte Propagandasender wie RT Deutsch oder getarnte Social-Media-Kanäle auf allen Plattformen.
Was kann die Politik tun? Braucht es schärfere Gesetze, sollten Falschbehauptungen verboten werden?
Verbote werden gern gefordert, sind aber Unsinn. Lügen ist nicht per se strafbar, und das ist gut so. Wir brauchen keine schärferen Gesetze, aber sinnvolle Regulierung. Dabei sollte es nicht um Inhalte gehen, sondern um die Rahmenbedingungen für die Betreiber. Auch technische Maßnahmen können helfen, Whatsapp hat damit ja schon begonnen. Ich hoffe, dass durch eine Debatte über Messenger der politische und gesellschaftliche Druck steigt, damit sich die Unternehmen ihrer Verantwortung bewusst werden. Aufklärung und Bildung sind weitere Ansatzpunkte. Ich würde mir eine Bundeszentrale für digitale Bildung wünschen. Wir müssen mit Bildungsangeboten für die digitale Welt Menschen jeden Alters erreichen und nicht immer nur an die Schule denken.
Die Kommunikation im Netz verlagert sich zunehmend in geschlossene Räume wie Gruppen und Messenger. Dort kann niemand widersprechen, aufklären oder im Zweifel auch anzeigen. Was können Unternehmen wie Facebook tun, um massenhafte Desinformation zu verhindern?
Aufklärungskampagnen können helfen. Im Zuge der Corona-Pandemie haben Dienste wie Instagram, Telegram oder auch Spotify begonnen, Informationen zu Covid-19 zu veröffentlichen. Man sieht etwa Aufforderungen, sich die Hände zu waschen und Masken zu tragen. An solcher Stelle auch auf die Gefahr von Desinformation hinzuweisen, wäre mal ein Anfang. Wir dürfen die Verantwortung aber nicht nur auf die Unternehmen abwälzen. Es liegt auch an den Nutzern selbst, einen Beitrag zu leisten. Widersprechen, wenn in der Whatsapp-Gruppe des Sportvereins Unsinn verbreitet wird. Sagen, dass antisemitische Memes nicht witzig sind, sondern menschenfeindlich. Familie, Freunde und Bekannte proaktiv auf Desinformationen hinweisen, die gerade verbreitet werden. Gerade in geschlossenen Gruppen müssen die Mitglieder selbst einschreiten. Strafbare Inhalte, die dort verbreitet werden, können genauso angezeigt werden wie öffentliche Beiträge. Und das sollte man auch tun.