"Fake News" Facebooks Lügendetektor

Facebook reagiert auf den Druck von außen und verspricht, Fake News aus dem Nachrichtenstorm zu filtern.

(Foto: dpa)

Nun soll es endlich losgehen: Nachdem nur ein Medienhaus mithelfen wollte, "Fake News" zu enttarnen, setzt Facebook nun auch auf selbstlernende Maschinen.

Facebook setzt im Kampf gegen "Fake News" auf eine Kombination aus selbstlernender Software und externen Journalisten. Monate nachdem das soziale Netzwerk angekündigt hatte, gegen das Problem vorgehen zu wollen, testet Facebook nun endlich sein neues Verfahren an kleinen Nutzergruppen in vier Ländern, darunter Deutschland.

Der Prozess funktioniert in mehreren Schritten: Eine Software prüft Beiträge anhand verschiedener Kriterien und schlägt im Zweifelsfall an. "Misstrauisch" wird der Algorithmus etwa wegen Hinweisen und Kommentaren von Nutzern, der Verweildauer in einem Artikel - bei falschen Nachrichten, so die Logik, steigen viele Leser schnell aus - und anderen sogenannten "Spam-Indikatoren". Weil die Software zu maschinellem Lernen fähig ist, soll sie mit der Zeit von selbst immer genauer werden.

In einem zweiten Schritt kann Facebook dann die Faktenprüfer des Rechercheportals Correctiv alarmieren, die in Deutschland mit dem Konzern kooperieren. Sie sollen dann "objektiv und faktenbasiert die Sachlage erklären". Das Ergebnis ihrer Prüfung wird Lesern unter dem Link zu dem betroffenen Artikel angezeigt. Die geplante Kooperation von Facebook und Correctiv wurde schon im Januar bekannt, allerdings gab es bisher keinen einzigen Faktencheck. Grund war, dass Facebook mit mehreren Medien kooperieren wollte. Außer Correctiv fand sich aber niemand, mehrere Medienhäuser erklärten, nicht für Facebook die Arbeit machen zu wollen.

"Fake News" hatten im US-Wahlkampf eine Debatte ausgelöst. Auch in Deutschland sind erfundene Zitate von Politikern im Umlauf. Kritiker von immer stärkeren, mit künstlicher Intelligenz betriebenen Filtern von Inhalten warnen, dies könne die Meinungsfreiheit einschränken.