bedeckt München 32°

Fake News:Auch Algorithmen können Fake News bislang nicht besiegen

Wegen gefälschter Meldungen über einen angeblichen Kinderpornoring stürmte ein bewaffneter Mann eine Pizzeria. Vor dem Laden haben Passanten Botschaften und Blumen hinterlassen.

(Foto: AP)

Denn die neuen Methoden ahmen jene Strategien nach, mit denen Menschen Fakten prüfen - und sind darum auch genauso fehlbar.

Eine Falschmeldung kann schnell korrigiert werden und trotzdem Aufmerksamkeit erregen. Am Montag erklärte Sony Music auf Twitter die Sängerin Britney Spears für tot. Wenig später stellte sich heraus, dass das Benutzerkonto der Plattenfirma gehackt wurde. Das Gerücht lebte trotzdem noch Stunden weiter. Jemand hatte sich einen bösen Scherz erlaubt.

Eine Kleinigkeit im Vergleich zu den Konsequenzen, die gefälschten Nachrichten im Netz derzeit zugeschrieben werden. So sollen sie etwa dazu beigetragen haben, dass Donald Trump zum US-Präsidenten gewählt wurde. Und erst kürzlich stürmte ein bewaffneter Mann eine Pizzeria in Washington D. C., in der er gefälschten Meldungen zufolge die Kommandozentrale eines Kinderpornorings vermutete.

Soziale Netzwerke Facebook setzt auf Floskeln
Inside Facebook

Facebook setzt auf Floskeln

Auf Enthüllungen des SZ-Magazins über traumatisierende Arbeitsbedingungen der Lösch-Teams reagiert Facebook mit nichtssagenden Beschwichtigungen. Anwälte sprechen bereits von einem "angeordneten Rechtsbruch".   Von Till Krause und Hannes Grassegger

Sogenannte Fake News verbreiten sich in sozialen Netzwerken schneller als Zeitungsenten früher, außerdem ist es sehr viel leichter, sich Unsinn auszudenken, als ihn zu widerlegen. Wenig verwunderlich, dass der Ruf nach automatischen Methoden laut wird, wahre und falsche Meldungen voneinander zu unterscheiden. Entwickler wollen Computern genau das beibringen, und auch Facebook selbst hat automatische Maßnahmen gegen Fake News angekündigt. Bislang aber bringen alle Methoden neue Probleme mit sich.

Dabei klingt die Idee zunächst verlockend: Rechner können schneller als jeder Mensch Informationen verarbeiten, sie könnten in Sekunden mehr Meldungen scannen, als ein Mensch im Jahr lesen kann. Außerdem könnten sie objektiver arbeiten als Menschen, da sie sich nicht von Emotionen leiten lassen - theoretisch jedenfalls. In der Praxis bilden die meisten Methoden aber Strategien nach, mit denen auch Menschen Informationen prüfen - und sind darum genauso fehlbar.

Eine Ente aus "Guardian" oder "Le Monde" würde nicht jeder Algorithmus erkennen

Da sind zum Beispiel die vier College-Studenten aus Amerika, die in nur 36 Stunden geschafft haben wollen, was Facebook bis heute nicht gelingt. Ihr Algorithmus überprüft die Seriosität von auf Facebook geteilten Artikeln anhand einer Liste von vertrauenswürdigen Quellen, die ihre Inhalte in der Regel sehr gewissenhaft prüfen: Was genauso in der New York Times steht, wäre demnach sehr vertrauenswürdig. Im Grunde wurde hier die einfachste Form der Medienkompetenz in Programmcode übersetzt: Lies nur, was als seriös gilt.

Facebook Zahl der blockierten Beiträge auf Facebook verdreifacht
Mutmaßlich strafbare Inhalte

Zahl der blockierten Beiträge auf Facebook verdreifacht

Deutschland gilt als das Land, das "Facebook den Krieg erklärt" hat. Jetzt gibt es neue Zahlen zum Kampf gegen Beiträge, in denen gegen Minderheiten gehetzt wird.

Ein solcher Ansatz stößt aber schnell an Grenzen, etwa wenn ein Thema in den als seriös gelisteten Medien keinen Platz findet oder wenn dort trotz aller Sorgfalt selbst fehlerhaft berichtet wird. Eine Ente aus dem Guardian oder Le Monde würde demnach nicht als Ente erkannt. Zudem bevorzugt dieser Algorithmus etablierte Medien gegenüber Neugründungen - und macht es denen damit schwerer.