Viele erfolgreiche Firmen gründen auf einer einzigen, milliardenschweren Idee, die sie hüten wie ihre Kronjuwelen. So redet Coca-Cola zwar ständig über das vermutlich berühmteste Rezept der Welt, verrät es aber nicht. So wird Google seinen Suchalgorithmus wohl auch in Zukunft nicht offenlegen, obwohl es deutsche Politiker in schöner Regelmäßigkeit fordern. Und genauso wenig dürfte Facebook die Tausenden Kriterien verraten, die Einfluss auf den Newsfeed der Nutzer haben.
So weit, so nachvollziehbar. Wenn man die europäische Facebook-Zentrale in Dublin besucht, drängt sich aber der Eindruck auf, dass es bei Facebook ein weiteres Betriebsgeheimnis gibt, von dem die Öffentlichkeit unter keinen Umständen erfahren darf. Je heftiger in Deutschland die Diskussion über Rassismus auf Facebook hochkocht, desto dicker scheinen die Mauern zu werden, hinter denen Facebook sein so genanntes Community Operations Team versteckt.
Facebooks Moderatoren sehen die hässlichen Seiten des Netzes
Die Mitarbeiter des Teams haben einen undankbaren Job: Sie müssen täglich Hass und Hetze, Gewalt und Pornografie anschauen und entscheiden, was davon gegen Facebooks eigene Richtlinien verstößt. Je nach Sichtweise sind sie die Zensoren oder die Straßenfeger des sozialen Netzwerks, den einen gehen sie zu leichtfertig vor, die anderen sähen Kommentare wie "Abknallen, das ganze dreckige Flüchtlingspack" lieber gestern als heute gelöscht.
Im Sommer feuerte Porsche einen 17-jährigen Lehrling wegen eines rassistischen Facebook-Postings und löste damit eine Debatte über den richtigen Umgang mit fremdenfeindlichen Beiträgen aus. Das Problem gibt es zwar auch auf anderen Plattformen wie Youtube oder Twitter, aber schnell wurde daraus eine ausschließlich auf Facebook fokussierte Auseinandersetzung. Blogger sammeln besonders widerwärtige Beiträge und machen sie öffentlich, Aktivisten melden rassistische Kommentatoren bei deren Arbeitgebern, der Justizminister will Facebook zum Löschen verpflichten, ein Anwalt verklagte Facebook wegen des Verdachts auf Volksverhetzung.
Medienberichte haben dazu geführt, dass immer wieder die gleichen Fragen gestellt werden: Wer kümmert sich bei Facebook um diese Beiträge? Wie viele Meldungen muss das Team täglich bearbeiten? Nach welchen Kriterien wird moderiert? Doch Facebook gibt wenig preis.
Besucher sind nicht willkommen
Auf der Etage des Community Operations Team grinsen einem David Hasselhoff und Super Mario entgegen. Die Pappfiguren passen zum einladenden Charakter des Facebook-Gebäudes, wo Sitzsäcke, Tischtennisplatten, Meditationsräume und Wände aus Legosteinen den Eindruck eines großen Wohnzimmers vermitteln - doch sie halten Schilder mit einer eindeutigen Botschaft: "No Visitors beyond this point." Ein Facebook-Angestellter wacht darüber, dass sich niemand an Hasselhoff vorbeischmuggelt und scheucht die Besucher schnell weiter zum nächsten Gang.
Im Vorfeld des Besuchs hatte das Unternehmen ein Gespräch mit einem deutschen Mitarbeiter des Moderations-Teams in Aussicht gestellt, der Rede und Antwort stehen sollen. Das etwa einstündige Treffen findet tatsächlich statt, doch es redet und antwortet vor allem seine Chefin. Bei fast jeder Nachfrage übernimmt Julie de Bailliencourt, die viele Jahre für das Community Operations Team zuständig war und jetzt als Safety Policy Managerin den Umgang mit von europäischen Nutzern gemeldeten Beiträgen verantwortet.
Strikte Anonymität, bitteschön
Zwar bekommen die Journalisten den deutschen Moderator zu Gesicht, doch er soll nicht zum Gesicht des Community Operations Team werden. Wer den Mann detailliert beschreibt, wird so bald keine weitere Möglichkeit für einen Besuch bekommen, daran lässt Facebook wenig Zweifel. Inhaltlich sagt er wenig Neues: Natürlich spüre man, was derzeit in Deutschland los sei. Im letzten Sommer habe das halbe Land den Weltmeistertitel gefeiert, diesen Sommer diskutiere es über Asylbewerber. Das schlage sich auf Facebook nieder, der Anteil rassistischer Kommentare habe deutlich zugenommen.
Die Moderation der Beiträge sei eine Herausforderung, aber keine Überforderung: "Es gibt keine Situation, in der ich mich alleingelassen fühle. Wenn wir unsicher sind, wie wir mit einem Kommentar umgehen sollen, können wir immer Kollegen um Rat fragen." Wie viele Berichte er täglich abarbeitet, wie viel Zeit er für schwierige Fälle hat, ob ihn die Konfrontationen mit der geballten verbalen Gewalt belastet, darüber schweigt er.
Ihr Forum:Muss Facebook Hasskommentare konsequenter löschen?
Die Anzahl der rassistischen Kommentare auf Facebook steigt. Der Konzern rechtfertigt seine verhaltene Löschpraxis mit dem Recht auf freie Meinungsäußerung. Vernachlässigt der Plattformbetreiber seine Pflicht, oder ist es allein Aufgabe der Strafverfolgungsbehörden diesen Fällen nachzugehen?
Auch Julie de Bailliencourt wird nur unwesentlich konkreter. Wie alle Facebook-Manager, die an diesem Tag Fragen beantworten, wiederholt sie mehrfach das Ziel, das sich Facebook gesetzt hat: "Our mission is to make the world more open and connected." Die Offenheit hat aber Grenzen, wenn es um Zahlen und Fakten zum Community Operations Team geht. Facebook, das Unternehmen, das wie kaum ein anderes auf die Macht der Daten und Algorithmen vertraut, wisse angeblich nicht, wie viele deutschsprachige Mitarbeiter das Team derzeit habe. Zahlen seien "kein Maßstab, in dem wir denken", das ausschlaggebende Kriterium sei die Zeit für die Bearbeitung eines Beitrags. Aber auch hier: keine konkrete Angabe, nur ein einzelnes Beispiel - in den Niederlanden habe es kürzlich weniger als eine Stunde gedauert, um einen Fall von Revenge Porn zu löschen, und das an einem Sonntag. Was das für Deutschland bedeutet, bleibt unklar.
Immerhin: In einem anderen Gespräch wird deutlich, dass es Facebooks eigener Anspruch sei, einen Großteil der Meldungen binnen 24 Stunden zu bearbeiten. In den meisten Fällen gelinge das bereits jetzt. Auch gebe es keine "Kammer des Schreckens", in der Unmengen überfälliger Reports lagerten, sagt Facebook-Managerin Siobhán Cummiskey. Zwar würden jede Woche "Millionen Beiträge" auf der ganzen Welt gemeldet, doch "Hunderte Mitarbeiter" in Dublin, Hyderabad, Austin und Menlo Park seien Tag und Nacht damit beschäftigt, jeden Fall zu prüfen. Zumindest in Irland, wo insgesamt mehr als 1000 Menschen arbeiten, sei das Community Operations Team die größte Abteilung.
Mehrfach melden bringt gar nichts
Ein paar interessante Dinge erfährt man dann doch. Anders als häufig gemutmaßt, spiele es keine Rolle, wie oft ein Kommentar gemeldet werde. Jeder Report lande in einer Warteschleife, ob sich einer oder Hunderte Nutzer beschwerten, sei egal. Es bringe nichts, öffentlich zum Melden von besonders krassen Postings aufzurufen, um Druck auf Facebook aufzubauen. Tatsächlich sei das sogar kontraproduktiv, weil dann etwa auf Twitter Screenshots der zwischenzeitlich womöglich bereits gelöschten Kommentare geteilt würden, auf die man ja eigentlich gerade nicht aufmerksam machen wolle.
Manche Nutzer melden Hasskommentare als Nacktheit, weil sie glauben, dass Facebook bei nackten Brüsten schneller reagiere als bei Rassismus. Auch das sei komplett sinnlos und verlängere die Wartezeit sogar, da die Beschwerde dann zunächst bei Mitarbeitern ankomme, die gar nicht dafür zuständig seien. Tatsächlich stimme es, dass ein anstößiges Foto oft schneller gelöscht werde als ein möglicherweise volksverhetzender Kommentar, gibt Cummiskey zu. Das liege aber nicht an doppelten Standards, die Facebook häufig vorgeworfen werden. Vielmehr sei die Entscheidung bei einem Foto meist eindeutig: Man sieht Brüste, oder man sieht sie nicht. Ob eine Äußerung noch von der Meinungsfreiheit gedeckt sei oder gegen Facebooks Community Standards verstoße, müsse dagegen sorgfältig geprüft werden.
"Flüchtling" ist kein Persönlichkeitsmerkmal
Das ist eine der Aussagen, die man an diesem Tag am häufigsten zu hören bekommt: Facebook dulde keinen Rassismus, dieser Vorwurf sei haltlos. Warum dann Kommentare wie "Asylschmarotzer ab ins Gas" stehen bleiben? Facebooks Gemeinschaftsrichtlinien verbieten es, andere Menschen aufgrund bestimmter Persönlichkeitsmerkmale anzugreifen. Dazu gehören etwa Rasse, Ethnie oder Herkunft - nicht aber, ob jemand gerade auf der Flucht ist. Im Klartext: Man kann relativ ungehindert gegen Flüchtlinge hetzen, sogar offen zur Lynchjustiz aufrufen. Die gleichen Drohungen gegen Muslime oder Syrer werden dagegen gelöscht, verspricht zumindest Facebook.
Überhaupt fühlt sich Facebook in der Rassismus-Debatte zu Unrecht beschuldigt. Man ordne sich mitnichten dem nahezu allumfassenden, US-amerikanischen Verständnis von Meinungsfreiheit unter, ziehe sehr wohl Grenzen. Wo genau diese liegen, soll nun eine Taskforce mit Vertretern aus Politik und Wissenschaft, NGOs wie Jugendschutz.net sowie anderen Tech-Unternehmen erarbeiten. Das Ziel: eine Definition von Hatespeech, die den zuständigen Mitarbeitern die Entscheidung erleichtern soll, wo freie Meinungsäußerung aufhört und Hetze anfängt.
Die Rassismus-Debatte gibt es fast nur in Deutschland
Eines dürfe man dabei aber nicht aus den Augen verlieren, schränkt eine andere Facebook-Mitarbeiterin ein: "Jeden Tag werden soooooo viele Beiträge gemeldet", sagt sie und malt mit ausgestreckten Armen einen großen Kreis in die Luft, "von denen Hatespeech nur einen klitzekleinen Teil ausmacht", und formt mit ihren Händen eine faustgroße Kugel. Mit Abstand am häufigsten würden Inhalte gemeldet, die "Nutzer schlichtweg nicht mögen", das verschaffe ihnen offensichtlich ein gutes Gefühl. Bayern-Fans beschweren sich über BVB-Postings, Nutzer wollen Fotos gelöscht sehen, weil sie diese als unvorteilhaft empfinden, solche Dinge.
Die Debatte über den Umgang mit rassistischen Postings werde dagegen fast ausschließlich in Deutschland geführt, mit Abstrichen auch in Österreich. Anderswo in Europa spiele das Thema kaum eine Rolle, in Polen gehe die Diskussion sogar in eine andere Richtung. Dort laute der Vorwurf: Facebook sei eine linke Zensurbehörde, die konservative und rechte Meinungen viel zu leichtfertig lösche.
Trotz des regional begrenzten Ausmaßes werde die Debatte aber auf höchster Ebene verfolgt, versichert Facebook. Auch Geschäftsführerin Sheryl Sandberg beobachte genau, was derzeit in Deutschland geschehe. Klar ist aber auch: Selbst wenn sich Facebook entscheidet, in Zukunft konsequenter zu löschen, in die Karten schauen lassen wird man sich dabei wohl trotzdem nicht. Möglicherweise werden bald ein paar konkretere Zahlen zum Community Operations Team bekannt, dessen Arbeit wird aber weiterhin hinter verschlossenen Türen stattfinden. Dafür sorgen ein paar Sicherheits-Angestellte - und zwei grinsende Figuren aus Pappkarton.