Fake News:Auch Algorithmen können Fake News bislang nicht besiegen

Lesezeit: 3 min

Wegen gefälschter Meldungen über einen angeblichen Kinderpornoring stürmte ein bewaffneter Mann eine Pizzeria. Vor dem Laden haben Passanten Botschaften und Blumen hinterlassen. (Foto: AP)

Denn die neuen Methoden ahmen jene Strategien nach, mit denen Menschen Fakten prüfen - und sind darum auch genauso fehlbar.

Von Benedikt Frank

Eine Falschmeldung kann schnell korrigiert werden und trotzdem Aufmerksamkeit erregen. Am Montag erklärte Sony Music auf Twitter die Sängerin Britney Spears für tot. Wenig später stellte sich heraus, dass das Benutzerkonto der Plattenfirma gehackt wurde. Das Gerücht lebte trotzdem noch Stunden weiter. Jemand hatte sich einen bösen Scherz erlaubt.

Eine Kleinigkeit im Vergleich zu den Konsequenzen, die gefälschten Nachrichten im Netz derzeit zugeschrieben werden. So sollen sie etwa dazu beigetragen haben, dass Donald Trump zum US-Präsidenten gewählt wurde. Und erst kürzlich stürmte ein bewaffneter Mann eine Pizzeria in Washington D. C., in der er gefälschten Meldungen zufolge die Kommandozentrale eines Kinderpornorings vermutete.

Inside Facebook
:Facebook setzt auf Floskeln

Auf Enthüllungen des SZ-Magazins über traumatisierende Arbeitsbedingungen der Lösch-Teams reagiert Facebook mit nichtssagenden Beschwichtigungen. Anwälte sprechen bereits von einem "angeordneten Rechtsbruch".

Von Till Krause und Hannes Grassegger

Sogenannte Fake News verbreiten sich in sozialen Netzwerken schneller als Zeitungsenten früher, außerdem ist es sehr viel leichter, sich Unsinn auszudenken, als ihn zu widerlegen. Wenig verwunderlich, dass der Ruf nach automatischen Methoden laut wird, wahre und falsche Meldungen voneinander zu unterscheiden. Entwickler wollen Computern genau das beibringen, und auch Facebook selbst hat automatische Maßnahmen gegen Fake News angekündigt. Bislang aber bringen alle Methoden neue Probleme mit sich.

Dabei klingt die Idee zunächst verlockend: Rechner können schneller als jeder Mensch Informationen verarbeiten, sie könnten in Sekunden mehr Meldungen scannen, als ein Mensch im Jahr lesen kann. Außerdem könnten sie objektiver arbeiten als Menschen, da sie sich nicht von Emotionen leiten lassen - theoretisch jedenfalls. In der Praxis bilden die meisten Methoden aber Strategien nach, mit denen auch Menschen Informationen prüfen - und sind darum genauso fehlbar.

Eine Ente aus "Guardian" oder "Le Monde" würde nicht jeder Algorithmus erkennen

Da sind zum Beispiel die vier College-Studenten aus Amerika, die in nur 36 Stunden geschafft haben wollen, was Facebook bis heute nicht gelingt. Ihr Algorithmus überprüft die Seriosität von auf Facebook geteilten Artikeln anhand einer Liste von vertrauenswürdigen Quellen, die ihre Inhalte in der Regel sehr gewissenhaft prüfen: Was genauso in der New York Times steht, wäre demnach sehr vertrauenswürdig. Im Grunde wurde hier die einfachste Form der Medienkompetenz in Programmcode übersetzt: Lies nur, was als seriös gilt.

Mutmaßlich strafbare Inhalte
:Zahl der blockierten Beiträge auf Facebook verdreifacht

Deutschland gilt als das Land, das "Facebook den Krieg erklärt" hat. Jetzt gibt es neue Zahlen zum Kampf gegen Beiträge, in denen gegen Minderheiten gehetzt wird.

Ein solcher Ansatz stößt aber schnell an Grenzen, etwa wenn ein Thema in den als seriös gelisteten Medien keinen Platz findet oder wenn dort trotz aller Sorgfalt selbst fehlerhaft berichtet wird. Eine Ente aus dem Guardian oder Le Monde würde demnach nicht als Ente erkannt. Zudem bevorzugt dieser Algorithmus etablierte Medien gegenüber Neugründungen - und macht es denen damit schwerer.

Andere Ansätze berücksichtigen darum nicht nur die Strahlkraft einer Medienmarke, sondern auch die Verbreitungswege der zu prüfenden Nachricht. So lässt sich etwa kontrollieren, ob ein Artikel zunächst über sogenannte Bots verbreitet wurde, also kleine Computerprogramme, die sich als Nutzer eines Sozialen Netzwerks ausgeben - was für eine Fälschung spricht. Forscher von Yahoo fanden bereits 2010 heraus, dass Artikel mit einer höheren Wahrscheinlichkeit den Tatsachen entsprechen, wenn sie auf Twitter von Leuten mit vielen Followern geteilt werden, als wenn sie von Unbekannten verbreitet werden. Wenn aber selbst Mitarbeiter des designierten US-Präsidenten Donald Trump Unwahrheiten streuen, hilft es wenig, nur über die Masse zu gehen.

Eine weitere, wenn auch sehr aufwendige Herangehensweise wäre es, eine große Datenbank mit möglichst vielen einzelnen Fakten zu füttern. Ein Algorithmus könnte dann anhand der Sprachlogik eines Textes Meinungen und Nachrichten auseinanderhalten und jede behauptete Tatsache bei der Faktendatenbank gegenchecken - wie bei einem gigantischen digitalen Brockhaus.

Digitalisierung
:Wie das Internet unser Gehirn verändert

Online bleiben, ohne den Verstand zu verlieren - dazu forscht der Mediziner Jan Kalbitzer. Er warnt vor Panikmache und davor, auf andere herabzublicken, weil sie in der "falschen" Filterblase stecken.

Interview von Juliane Liebert

Erst im vergangenen Monat zeigte Google Interesse an einer solchen Technologie. Es förderte die britische Factchecking-Plattform Full Fact mit 50 000 Dollar, um ein solches System zu entwickeln. Google selbst könnte das helfen, seine Suchergebnisse zu verbessern: Auch dort können Fake News auf den vorderen Plätzen auftauchen.

Für Journalisten wäre eine solche Datenbank zumindest ein Hilfsmittel, vergleichbar vielleicht mit einer automatischen Rechtschreibprüfung, die nun eben Fakten nachschlägt. Bei frischen Falschmeldungen, wie etwa der vom Tod eines Prominenten, würde so eine Datenbank aber auch nicht helfen: Sie müsste erst um die Neuigkeit aktualisiert werden. Im schlechtesten Fall könnte sie sogar Fake News legitimieren, in denen aus einzelnen zutreffenden Tatsachen die falschen Schlüsse gezogen werden.

Wahrscheinlichkeiten kann nur ein Mensch sinnvoll einordnen

Eine völlig andere Methode präsentiert das israelische Startup Rootclaim. Für halbwegs kontroverse Fragen, wie etwa die, ob Trump eine Perücke trägt, oder ob die Masernimpfung Autismus verursacht, werden dort zunächst mehrere Hypothesen formuliert. Dann wird in mehreren Arbeitsschritten für jede Hypothese eine Wahrscheinlichkeit ermittelt. Die Webseite geht mit 99,9 Prozent davon aus, dass Impfstoffe nicht für Autismus verantwortlich sind, dass Trump Haartransplantate hat, sei mit 64 Prozent "einigermaßen wahrscheinlich". Die Grundinformationen tragen zwar noch Menschen zusammen, die Berechnung der Gesamtwahrscheinlichkeit übernimmt aber ein Algorithmus.

Laut Rootclaim schaffe ihre Methode Transparenz. Wer jedoch die Mathematik hinter den Zahlen nicht versteht, wird jene kaum sinnvoll einordnen können. Hier hat der Mensch den Algorithmen etwas Wichtiges voraus: Er kann sein Ergebnis selbst erklären und dafür geradestehen.

© SZ vom 28.12.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Soziales Netzwerk
:Imzy will eine höfliche Alternative zu Facebook sein

Ein Ort im Netz ohne Belästigungen, Rassismus, Sexismus und Pornografie: Das neue soziale Netzwerk Imzy versucht das Unmögliche.

Von Michael Moorstedt

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: