Stimmungsmache im Netz Systematische Desinformation auch vor der Bundestagswahl 2017

Welche Dimension die gezielt gestreuten Falschnachrichten in Deutschland haben, zeigt eine Studie der Universität Oxford. Demnach waren etwa 20 Prozent der politischen Informationen, die vor der Bundestagswahl 2017 in sozialen Netzwerken geteilt wurden, systematische Desinformation. Es sei schwer nachvollziehbar, wer hinter solchen Kampagnen stecke, sagt Simon Hegelich, Professor an der TU München. Er forscht zur Manipulation in sozialen Netzwerken. So gebe es Indizien dafür, dass dieselben Akteure sowohl bei Twitter als auch Facebook aktiv waren und zudem mit AfD-nahen Accounts in Verbindung standen. "Gerade bei kulturellen Themen gibt es Priming-Effekte", sagt Hegelich. Dieser Effekt beschreibt etwa, dass die AfD davon profitiert, wenn sie in den Medien genannt wird, egal ob positiv oder negativ. Bei anderen Parteien gebe es diesen Effekt nicht, weil er nur durch negative Äußerungen zu kulturellen Themen wie Migration oder Political Correctness entstehe.

"Die Erwartung der frühen Jahre an soziale Netzwerke wurde enttäuscht", sagt Ulrike Klinger. Sie leitet an der Freien Universität Berlin die Forschungsgruppe "Nachrichten, Kampagnen und die Rationalität öffentlicher Diskurse". Die Debatte über soziale Medien sei heute pessimistischer als noch vor fünf Jahren. "Heute geht es überwiegend um Desinformation und ob soziale Medien unsere Demokratie schädigen." In bestimmten Situationen seien nur wenige sogenannte Social Bots nötig, also automatisierte Nutzerprofile, die in sozialen Medien Botschaften verbreiten, um im Netz das Meinungsklima in einer politischen Debatte zu ändern. Deshalb müssten die Plattformen ihrer Verantwortung besser nachkommen, meint Klinger. Bislang reagierten diese lediglich auf politischen Druck. "Zwar verdienen sie viel Geld mit den Daten, geben der Gesellschaft aber wenig zurück." Wenn Facebook oder Twitter behaupteten, dass sie jeden Tag eine Million Fake-Accounts löschten, dann könne das zudem niemand überprüfen.

Netzpolitik EU-Kommission fordert mehr Transparenz von Internet-Giganten
Netzpolitik

EU-Kommission fordert mehr Transparenz von Internet-Giganten

Vor der Europawahl wächst die Angst vor Falschinformationen. Die Fortschrittsberichte von Facebook, Google, Twitter und Co. bieten wenig Hoffnung.   Von Karoline Meta Beisel

Im September vergangenen Jahres unterzeichneten die Unternehmen einen freiwilligen Verhaltenskodex zur Selbstregulierung. In Brüssel ist man mit der Umsetzung jedoch nicht zufrieden. Bislang habe die EU-Kommission nicht den Eindruck, dass die Plattformen rechtzeitig und mit Nachdruck gegen das Problem vorgehen, hieß es Ende Februar. Im jüngsten Zwischenbericht vom vergangenen Dienstag werden immerhin die Bemühungen der Plattformen als erfreulich bezeichnet, so schuf Facebook auch für Europa ein Verzeichnis der Wahlwerbung. Allerdings sei es nach wie vor "bedauerlich", dass kaum Fortschritte bei der Transparenz von themenbezogener Werbung gemeldet wurden. Es sei notwendig, dass die Plattformen externen Forschern Datensätze zur Verfügung stellten, heißt es im Bericht. Die Plattformen geben sich indes geläutert. Facebook habe etwa die "Bedrohungslage" und den Einfluss ausländischer Akteure auf den US-Wahlkampf 2016 zu lange nicht erkannt, sagte ein Vertreter von Facebook bei einer Veranstaltung der Unionsfraktion im März.

"Die Russen sehen sich in der Defensive"

Gesteuerte Kampagnen seien kostengünstig, und ihr Nutzen - nämlich Streit anzufachen - sei groß, sagt Sandro Gaycken, IT-Sicherheitsexperte am Digital Society Institute in Berlin. Dahinter stehe das Prinzip "Teile und herrsche", sagt er. "Russland ist dabei ein bekannter Akteur, weil man sich dort vom Paradigma der propagandistischen Beeinflussung nie richtig verabschiedet hat." Um dem zu begegnen, sei es nötig, mit ausländischen Akteuren in den Dialog zu treten. Allerdings herrsche in Russland umgekehrt der Eindruck vor, dass gegen das Land ein Informationskrieg geführt werde, meint Gaycken. "Die Russen sehen sich in der Defensive."

Auch Geldgeber aus den USA hätten in der Vergangenheit versucht, das Meinungsklima in Deutschland zu manipulieren, sagt David Schraven, Gründer der Rechercheplattform Correctiv. Seit 2017 kooperiert die Plattform mit Facebook, um Beiträge als Falschmeldungen zu kennzeichnen. Schraven hatte schon vor der Landtagswahl in seiner Heimat Nordrhein-Westfalen 2017 beobachtet, dass rechte Akteure den Erfolg Donald Trumps im Rust Belt, der ehemals dominanten Industrieregion der USA, auf das Ruhrgebiet zu übertragen versuchten. So wurde etwa über den britischen Ableger der Breitbart-Webseite eine angebliche Nachricht über einen "Mob" in Dortmund verbreitet, wo mehr als 1000 Männer "Allahu Akhbar" rufend eine Kirche in Brand gesteckt haben sollen. Diese Falschmeldung auf Englisch wurde in Facebook-Gruppen in Deutschland rasant verbreitet; viele glaubten offenbar die erfundene Geschichte. Schraven zufolge standen dahinter rechte Gruppen in Deutschland, die so Stimmung gegen Flüchtlinge machen wollten.

Ein weiteres Beispiel, das er nennt: In Facebook-Gruppen, die auf Publikum im Ruhrgebiet zielen, wurden Meldungen über eine angebliche Vergewaltigung durch einen Flüchtling geteilt. Als Quelle wurde ein "Freund bei der Polizei" genannt. So wurde begründet, dass andere Medien nicht über diese Vergewaltigung - die in Wahrheit nie stattgefunden hat - berichtet haben. Schraven sieht einen Zusammenhang zwischen den Falschnachrichten und dem hohen Stimmenanteil der AfD in manchen Bezirken von Essen oder Dortmund.

Social Media Die Lügen der hyperaktiven Cyborgs

"Science"-Studie zu Fake-News 

Die Lügen der hyperaktiven Cyborgs

Forscher haben untersucht, wie und von wem Falschnachrichten während der US-Wahl 2016 verbreitet wurden. Die Experten schlagen ein Gegenmittel vor.   Von Max Muth