Was die Whistleblowerin Frances Haugen für Facebook ausgelöst hat: heftige Anschuldigungen, Journalisten in Europa und den USA sichten Tausende Seiten brisantes Material aus dem Innersten des Konzerns. Die Dokumente geben einen seltenen Einblick in das Innenleben des sonst so verschwiegenen Konzerns. Auf ihre Veröffentlichung folgten schon mehrere Anhörungen im US-Kongress. Dazu kommen ein globaler Totalausfall, drohende Regulierung, besorgte Investoren und die Aktie im Sinkflug. Selbst für Facebook, wo reichlich Erfahrung im Umgang mit Krisen gesammelt wurde, waren es turbulente Wochen.
Facebook ist mehr als ein erfolgreiches Tech-Unternehmen mit einem eigenwilligen Alleinherrscher. Mark Zuckerberg kontrolliert mit Facebook, Instagram und Whatsapp drei gewaltige Kommunikationsplattformen. Was er entscheidet, kann das Weltbild von Millionen Menschen beeinflussen. 2,89 Milliarden Menschen haben die Dienste abonniert. Nun zeigen interne Dokumente, dass er das Wohl von Facebook in einigen Fällen über das Wohl seiner Nutzerinnen und Nutzer gestellt hat. Deshalb ist es wichtig, genauer hinzuschauen und Ordnung in das Chaos der vergangenen anderthalb Monate zu bringen - zuerst in den Ablauf der Ereignisse, dann in den Inhalt der Dokumente.
Mitte September veröffentlichte das Wall Street Journal den ersten Auszug aus den sogenannten Facebook Files. Es sind interne Dokumente aus dem Facebook-Konzern, darunter Studien, Präsentationen und Chat-Protokolle von Angestellten. Dahinter steckt Frances Haugen, die bis zum Frühjahr selbst als Produktmanagerin für Facebook arbeitete und das Material Medien zuspielte. Sie vertraute sich zunächst Jeff Horwitz an, Technologie-Reporter beim Wall Street Journal. Der begann mit der Auswertung. Die Organisation Whistleblower Aid half ihr, sich rechtlich abzusichern und weitere Helfer zu finden. Anwälte und eine Kommunikationsagentur kamen dazu. Kurz vor den ersten Veröffentlichungen im Wall Street Journal kam ein Schwergewicht der politischen Kommunikation hinzu. Seither wird sie von der Agentur Bryson Gillette betreut, die Bill Burton, ehemaliger stellvertretender Pressesprecher des Weißen Hauses unter Obama, gegründet hat.
Haugen enthüllte ihre Identität in der CBS-Nachrichtensendung "60 Minutes" und sprach mit SZ, NDR und WDR. Bereits früh hatte sich die Whistleblowerin an die Recherchekooperation gewandt. Sie sagte als Zeugin im US-Senat aus und legte acht Beschwerden bei der amerikanischen Börsenaufsicht SEC ein. Ein Mitarbeiter des Kongresses stellte einem Konsortium internationaler Medienorganisationen - zu dem auch SZ, NDR und WDR gehören, die französische Tageszeitung Le Monde, die dänische Zeitung Berlingske, das belgische Nachrichtenmagazin Knack und die Schweizer Mediengruppe Tamedia - geschwärzte Versionen der Dokumente zur Verfügung. Die gemeinnützige Organisation OCCRP (Organized Crime and Corruption Reporting Project) half, die Dokumente maschinenlesbar zu machen.
Die Erkenntnisse aus den Dokumenten sind weitreichend. In den kommenden Wochen werden weltweit viele Geschichten über das Leak erscheinen. Das sind nach dem gegenwärtigen Stand die sieben zentralen Erkenntnisse aus den Facebook Files sowie den Aussagen Haugens und anderer Whistleblower.
1. Facebook war sich seiner Risiken und Nebenwirkungen immer bewusst
Vor fünf Jahren gelangte ein internes Memo an die Öffentlichkeit. "Die hässliche Wahrheit ist es, dass wir so fest daran glauben, Menschen miteinander zu verbinden, dass alles, was es uns erlaubt, mehr Menschen miteinander zu verbinden, per se gut ist", schrieb Facebook-Manager Andrew Bosworth. Vielleicht koste die globale Vernetzung Menschenleben, vielleicht würden Terroranschläge über Facebook koordiniert. Trotzdem tue man das Richtige.
"Das Hässliche", war die Nachricht überschrieben, und sie nahm vorweg, was die Facebook Files enthüllten. Allem Weltverbesserungsgerede zum Trotz wusste Facebook um seine Schattenseiten. Über Jahre hinweg wiesen Entwicklerinnen und Forscher intern immer wieder darauf hin, doch viele Warnungen wurden überhört oder ignoriert. Immer wieder gelobte Facebook nach kritischen Recherchen Besserung. Die Dokumente wecken Zweifel, wie ernst die Entschuldigungen gemeint waren - schließlich hätte Zuckerberg nur auf seine eigenen Angestellten hören müssen.
2. Zuckerberg hat die Öffentlichkeit belogen
Knapp drei Milliarden Menschen nutzen Facebooks verschiedene Plattformen, und angeblich sind alle gleich. Das jedenfalls behauptete Zuckerberg immer wieder, sogar unter Eid vor dem US-Senat. Es war eine Falschaussage, denn manche Nutzerinnen und Nutzer sind gleicher: Ein geheimes Programm namens "XCheck" formulierte Ausnahmen für rund sechs Millionen Accounts. Die meist prominenten Inhaber durften die Hausregeln brechen, ohne dafür sanktioniert zu werden.
Dazu zählte etwa der Fußballer Neymar, der in einem Livestream den Klarnamen und Nacktbilder einer Frau zeigte, die ihm Vergewaltigung vorwarf. Normale Konten wären gelöscht worden, Neymars Video blieb 24 Stunden online, mit seinem Account geschah gar nichts. Im vergangenen Jahr wurden Beiträge mehr als 16 Milliarden Mal betrachtet, die gegen Facebooks Richtlinien verstießen, wegen XCheck aber erst mit Verspätung gelöscht wurden. Facebook äußert sich dazu: "Wir möchten klarstellen, dass wir Inhalte von Facebook entfernen, egal wer sie postet, wenn sie gegen unsere Standards verstoßen." Für manche Seiten und Profile gebe es aber eine Sonderbehandlung, die würden "einer zweiten Überprüfung unterzogen, um sicherzustellen, dass wir unsere Politik korrekt anwenden."
3. Instagram kann der mentalen Gesundheit von Teenagern schaden
Einem Drittel der Mädchen, die sich unwohl in ihrem Körper fühlen, geht es schlechter, wenn sie Instagram nutzen. Das ist eine von vielen Zahlen aus mehreren internen Studien, die einen Schluss nahelegen: Die Inhalte, die Jugendliche auf Instagram sehen, sind eine Gefahr für ihr Selbstwertgefühl, können Depressionen auslösen oder sogar Suizidgedanken hervorrufen.
Seit Wochen halten Politiker Facebook diese Studien vor, aufgebrachte Eltern sorgen sich um ihre Kinder. Der Konzern verteidigte sich aggressiv und fühlte sich ungerecht behandelt. Tatsächlich beruht ein Teil der Erhebungen auf kleinen Stichproben, nicht jede Korrelation ist eine Kausalität, und Apps wie Tiktok und Youtube bringen genauso viele Probleme mit sich. Doch eines kann auch Facebook nicht wegdiskutieren: Es gibt seit Jahren bei Facebook interne Belege, dass Instagram bei vielen Teenagern großen Druck und Unsicherheit auslöst. Die Öffentlichkeit hat davon aber erst durch die Leaks erfahren.
4. Facebook will Kinder für sich gewinnen
Für viele Eltern ist es eine Horrorvorstellung, für Facebook ist es ein wichtiger Bestandteil der Strategie: Künftig sollen auch Kinder die Apps des Konzerns nutzen. Dahinter steckt große Angst vor Konkurrenz. Mit Hunderten Diagrammen und Tabellen zeigen interne Auswertungen, dass die junge Zielgruppe abwandert. Facebook gilt den meisten längst als Plattform ihrer Eltern, auch Instagram wird zunehmend uncool. Am liebsten nutzen US-Teenager Snapchat und Tiktok.
Instagram selbst bezeichnete diese Entwicklung bereits 2018 als "existenzielle Bedrohung", versuchte aber gleichzeitig, das Problem bei Investoren kleinzureden. Nun soll gegengesteuert werden: Bislang gibt es mit dem Messenger Kids nur ein Produkt für Kinder, offiziell gilt für alle anderen Apps ein Mindestalter von 13 Jahren. In der Realität kann Facebook aber ohnehin kaum kontrollieren, wer sich anmeldet. Deshalb soll eine Kinder-Version von Instagram entstehen. Nach der aktuellen Kritik wurde die Arbeit pausiert, vermutlich aber nicht für lange Zeit.
5. Facebooks künstliche Intelligenz ist schwer von Begriff
Zehntausende Menschen sichten im Auftrag von Facebook problematische Inhalte. Diese sogenannten Content-Moderatoren arbeiten größtenteils bei Drittfirmen, ihre Tätigkeit ist belastend, die Bezahlung spärlich. Vor allem kommen sie mit dem Löschen nicht hinterher. Deshalb will Facebook die Menschen durch Maschinen ersetzen. Zuckerberg preist seit Jahren die großen Fortschritte, die Facebooks Systeme machten, wenn es darum geht, Hassrede, Gräuelvideos oder terroristische Inhalte zu erkennen.
Manche von Facebooks Angestellten misstrauen diesem Heilsversprechen. "Wir werden vermutlich niemals ein Modell haben, dass auch nur die Mehrheit der Integritätsverletzungen erkennt, vor allem in sensiblen Bereichen", schrieb ein Forscher 2019. Er spricht von einer Erkennungsrate von zwei Prozent, eine andere interne Studie nennt drei bis fünf Prozent. Facebook verweist darauf, dass es immer unwahrscheinlicher werde, dass Nutzer auf der Plattform Hassrede begegneten. Diese Metrik sei relevanter als die Erkennungsrate. Klar ist: Content-Moderation wird wohl niemals perfekt funktionieren - und Facebook wird sich immer jene Zahlen herauspicken, die am besten zum eigenen Narrativ passen.
6. Erst kommen die USA, dann kommt lange nichts
Facebook gründete zwar 2020 ein Team, um Nutzer während der US-Präsidentenwahl vor Falschinformationen zu schützen, doch außerhalb der englischsprachigen Welt sind Nutzer sehr viel schlechter geschützt. Beispiel Arabisch: Obwohl mehr als 220 Millionen Nutzer arabisch sprechen und damit die drittgrößte Gruppe auf den Plattformen stellen, fehlen akut Moderatoren für die verschiedenen Länder. In einer internen Studie wird kritisiert, dass die Moderatoren vor allem aus Marokko und Syrien kommen, die aber Inhalte beispielsweise aus Jemen oder der Golfregion nicht wirklich einordnen können. Dabei macht der interne Bericht deutlich, dass Facebook fast selbst jedes einzelne Land, in dem hauptsächlich arabisch gesprochen wird als "Hochrisikoland" einschätzt, in dem es vielfältige Herausforderungen wie "Terrorismus oder Menschenhandel" gebe. Auch die Entwicklung von künstlicher Intelligenz, die Hass und Hetze aufspüren soll, bevor die Inhalte Nutzern gezeigt werden, ist in anderen Sprachen teuer und sehr mangelhaft. Auf Arabisch können die Algorithmen beispielsweise nicht zwischen Koran-Zitaten und tatsächlichen Aufrufen zu Gewalt differenzieren. Facebook selbst sagt, dass es 15.000 Moderatoren für mehr als 70 Sprachen der Welt beschäftigt, auch für Arabisch in Jemen, Libyen, Saudi-Arabien und Irak.
7. Für Facebook zählt in erster Linie der Profit
Volksparteien klagten über einen "Bürgerkrieg in sozialen Medien" und pervertierte Anreizsysteme, extremistische Parteien freuten sich, dass ihre Provokationen besonders viele Menschen erreichen: So fielen die Reaktionen aus der europäischen Politik aus, als Facebook 2018 die Logik änderte, nach der Inhalte im Newsfeed auftauchen. Davor habe man positive und negative Inhalte in einem ausgewogenen Verhältnis geteilt, sagte die Social-Media-Abteilung einer polnischen Partei. Nach Facebooks Eingriff dominierten Angriffe auf den politischen Gegner - denn genau das belohne der Algorithmus.
Dieses Beispiel ist nur eines von vielen, in denen Facebook am offenen Herzen der Welt operierte. Man schraubt am Algorithmus, um Menschen dazu zu bringen, mehr Zeit auf Facebook zu verbringen - und stellt erst Monate oder Jahre später fest, dass es unerwünschte Nebenwirkungen gab. Teils sind die Risiken auch schon vorher klar: Facebook brüstet sich gern mit seiner branchenweit einzigartigen Forschungsabteilung, doch ein Teil dieses Teams ist frustriert und wütend. Facebook gebe zwar Studien in Auftrag, setze die Empfehlungen dann aber nicht um. Am Ende entscheide fast immer die Marketing-Abteilung.
"Ich habe immer wieder gesehen, wie Facebook damit umgeht, wenn es einen Konflikt zwischen Profit und Sicherheit gibt", sagte Haugen während der Anhörung im US-Senat. "Facebook löst diese Konflikte regelmäßig zugunsten seines Profits."
Alle Texte zu den "Facebook Files" finden Sie hier .