bedeckt München 12°

Hasskommentare:Facebook rückt nicht mit Zahlen heraus

Auch Julie de Bailliencourt wird nur unwesentlich konkreter. Wie alle Facebook-Manager, die an diesem Tag Fragen beantworten, wiederholt sie mehrfach das Ziel, das sich Facebook gesetzt hat: "Our mission is to make the world more open and connected." Die Offenheit hat aber Grenzen, wenn es um Zahlen und Fakten zum Community Operations Team geht. Facebook, das Unternehmen, das wie kaum ein anderes auf die Macht der Daten und Algorithmen vertraut, wisse angeblich nicht, wie viele deutschsprachige Mitarbeiter das Team derzeit habe. Zahlen seien "kein Maßstab, in dem wir denken", das ausschlaggebende Kriterium sei die Zeit für die Bearbeitung eines Beitrags. Aber auch hier: keine konkrete Angabe, nur ein einzelnes Beispiel - in den Niederlanden habe es kürzlich weniger als eine Stunde gedauert, um einen Fall von Revenge Porn zu löschen, und das an einem Sonntag. Was das für Deutschland bedeutet, bleibt unklar.

Immerhin: In einem anderen Gespräch wird deutlich, dass es Facebooks eigener Anspruch sei, einen Großteil der Meldungen binnen 24 Stunden zu bearbeiten. In den meisten Fällen gelinge das bereits jetzt. Auch gebe es keine "Kammer des Schreckens", in der Unmengen überfälliger Reports lagerten, sagt Facebook-Managerin Siobhán Cummiskey. Zwar würden jede Woche "Millionen Beiträge" auf der ganzen Welt gemeldet, doch "Hunderte Mitarbeiter" in Dublin, Hyderabad, Austin und Menlo Park seien Tag und Nacht damit beschäftigt, jeden Fall zu prüfen. Zumindest in Irland, wo insgesamt mehr als 1000 Menschen arbeiten, sei das Community Operations Team die größte Abteilung.

Mehrfach melden bringt gar nichts

Ein paar interessante Dinge erfährt man dann doch. Anders als häufig gemutmaßt, spiele es keine Rolle, wie oft ein Kommentar gemeldet werde. Jeder Report lande in einer Warteschleife, ob sich einer oder Hunderte Nutzer beschwerten, sei egal. Es bringe nichts, öffentlich zum Melden von besonders krassen Postings aufzurufen, um Druck auf Facebook aufzubauen. Tatsächlich sei das sogar kontraproduktiv, weil dann etwa auf Twitter Screenshots der zwischenzeitlich womöglich bereits gelöschten Kommentare geteilt würden, auf die man ja eigentlich gerade nicht aufmerksam machen wolle.

Manche Nutzer melden Hasskommentare als Nacktheit, weil sie glauben, dass Facebook bei nackten Brüsten schneller reagiere als bei Rassismus. Auch das sei komplett sinnlos und verlängere die Wartezeit sogar, da die Beschwerde dann zunächst bei Mitarbeitern ankomme, die gar nicht dafür zuständig seien. Tatsächlich stimme es, dass ein anstößiges Foto oft schneller gelöscht werde als ein möglicherweise volksverhetzender Kommentar, gibt Cummiskey zu. Das liege aber nicht an doppelten Standards, die Facebook häufig vorgeworfen werden. Vielmehr sei die Entscheidung bei einem Foto meist eindeutig: Man sieht Brüste, oder man sieht sie nicht. Ob eine Äußerung noch von der Meinungsfreiheit gedeckt sei oder gegen Facebooks Community Standards verstoße, müsse dagegen sorgfältig geprüft werden.

"Flüchtling" ist kein Persönlichkeitsmerkmal

Das ist eine der Aussagen, die man an diesem Tag am häufigsten zu hören bekommt: Facebook dulde keinen Rassismus, dieser Vorwurf sei haltlos. Warum dann Kommentare wie "Asylschmarotzer ab ins Gas" stehen bleiben? Facebooks Gemeinschaftsrichtlinien verbieten es, andere Menschen aufgrund bestimmter Persönlichkeitsmerkmale anzugreifen. Dazu gehören etwa Rasse, Ethnie oder Herkunft - nicht aber, ob jemand gerade auf der Flucht ist. Im Klartext: Man kann relativ ungehindert gegen Flüchtlinge hetzen, sogar offen zur Lynchjustiz aufrufen. Die gleichen Drohungen gegen Muslime oder Syrer werden dagegen gelöscht, verspricht zumindest Facebook.

Überhaupt fühlt sich Facebook in der Rassismus-Debatte zu Unrecht beschuldigt. Man ordne sich mitnichten dem nahezu allumfassenden, US-amerikanischen Verständnis von Meinungsfreiheit unter, ziehe sehr wohl Grenzen. Wo genau diese liegen, soll nun eine Taskforce mit Vertretern aus Politik und Wissenschaft, NGOs wie Jugendschutz.net sowie anderen Tech-Unternehmen erarbeiten. Das Ziel: eine Definition von Hatespeech, die den zuständigen Mitarbeitern die Entscheidung erleichtern soll, wo freie Meinungsäußerung aufhört und Hetze anfängt.

Die Rassismus-Debatte gibt es fast nur in Deutschland

Eines dürfe man dabei aber nicht aus den Augen verlieren, schränkt eine andere Facebook-Mitarbeiterin ein: "Jeden Tag werden soooooo viele Beiträge gemeldet", sagt sie und malt mit ausgestreckten Armen einen großen Kreis in die Luft, "von denen Hatespeech nur einen klitzekleinen Teil ausmacht", und formt mit ihren Händen eine faustgroße Kugel. Mit Abstand am häufigsten würden Inhalte gemeldet, die "Nutzer schlichtweg nicht mögen", das verschaffe ihnen offensichtlich ein gutes Gefühl. Bayern-Fans beschweren sich über BVB-Postings, Nutzer wollen Fotos gelöscht sehen, weil sie diese als unvorteilhaft empfinden, solche Dinge.

Die Debatte über den Umgang mit rassistischen Postings werde dagegen fast ausschließlich in Deutschland geführt, mit Abstrichen auch in Österreich. Anderswo in Europa spiele das Thema kaum eine Rolle, in Polen gehe die Diskussion sogar in eine andere Richtung. Dort laute der Vorwurf: Facebook sei eine linke Zensurbehörde, die konservative und rechte Meinungen viel zu leichtfertig lösche.

Trotz des regional begrenzten Ausmaßes werde die Debatte aber auf höchster Ebene verfolgt, versichert Facebook. Auch Geschäftsführerin Sheryl Sandberg beobachte genau, was derzeit in Deutschland geschehe. Klar ist aber auch: Selbst wenn sich Facebook entscheidet, in Zukunft konsequenter zu löschen, in die Karten schauen lassen wird man sich dabei wohl trotzdem nicht. Möglicherweise werden bald ein paar konkretere Zahlen zum Community Operations Team bekannt, dessen Arbeit wird aber weiterhin hinter verschlossenen Türen stattfinden. Dafür sorgen ein paar Sicherheits-Angestellte - und zwei grinsende Figuren aus Pappkarton.

© SZ.de/sih
Zur SZ-Startseite

Lesen Sie mehr zum Thema