Zwischen Meinungsfreiheit und Hatespeech:Was gesagt werden darf, entscheidet Facebook

Facebook denies anti-conservative bias, censorship

Die Kriterien, nach denen Facebook löscht, bleiben undurchsichtig.

(Foto: AFP)

Von Hakenkreuzen bis Satire: Facebook urteilt über Löschungen von Millionen Beiträgen. Warum hält der Konzern geheim, wie das funktioniert?

Von Johannes Boie

Mehr als eine Million Inhalte werden täglich auf Facebook gemeldet, weil sie irgendjemanden irgendwie stören. Das verriet eine Facebook-Chefin vor ein paar Monaten in einem für ihren Arbeitgeber überaus seltenen Moment von Offenheit. Darunter ist alles: von der Holocaust-Leugnung bis zum harmlosen Spaß über Politiker, vom veröffentlichten Nacktfoto eines Minderjährigen, der sich vor Scham das Leben zu nehmen droht, bis zur Beschwerde eines Fußball-Fans über einen Witz, der seinen Verein betrifft. Darunter sind unbekleidete Frauenbrüste, die manchen Amerikaner verstören mögen, aber auch Hakenkreuze, die in den USA unter das Recht auf freie Meinungsäußerung und in Deutschland unter den Paragrafen 86a des Strafgesetzbuchs fallen. Es ist also kompliziert.

Kompliziert einerseits, äußerst wichtig andererseits. Facebook spielt für mehr als eine Milliarde Menschen auf der Welt eine zentrale Rolle in ihrem Leben, sie besuchen die Plattform täglich oder mehrmals täglich.

Ein Geschäftsmodell, das es noch nie gab

Der Dienst ist zu einer Art globaler Agora geworden. Facebooks Geschäftsmodell besteht letzten Endes darin, Öffentlichkeit herzustellen. Das ist ein besonderes Produkt, auch eines, das es in diesem Ausmaß noch nie gab. Geht es jedoch um die Spielregeln dieses digitalen Raums, verhält sich der Konzern wie ein Brause-Hersteller: Transparenz? Einsicht? Offenheit? Gibt's kaum. Ähnlich wie im alten Griechenland gibt es auch auf Facebook einen Olymp. Dort sitzen Figuren, die das Gespräch anderer auf Facebook unterbrechen, löschen, steuern oder befeuern können. Wer wen aus welchem Grund zum Schweigen bringt, ist in vielerlei Hinsicht und trotz diverser Bemühungen von Facebook intransparent.

Auf Anfrage äußert sich der Konzern schwammig. Man halte sich an "geltendes deutsches Recht", schreibt ein Sprecher, er erwähnt aber auch interne "Richtlinien" für Mitarbeiter, die Inhalte löschen und Nutzer sperren. Außerdem stünde man "in regelmäßigem Austausch mit den Juristen der FSM-Beschwerdestelle zu den relevanten Rechtsgrundlagen und deren Auslegung". FSM steht für Freiwillige Selbstkontrolle Multimedia-Diensteanbieter, es handelt sich um einen gemeinnützigen Verein. Obendrauf, heißt es bei Facebook, kämen noch "die Ideen und Vorstellungen der vielen weiteren Organisationen, mit denen wir kooperieren".

Auf Anfrage schickt Facebook eine Liste mit 23 Organisationen, von denen sich je circa vier im weitesten Sinne mit Digitalisierung befassen, vier "gegen rechts" kämpfen, vier für Flüchtlinge eintreten, darunter die Initiative einer Digitalagentur aus München. Weitere Partner von Facebook kommen aus Bereichen wie dem Gesundheitswesen oder dem Kinderschutz, darunter sind herausragende Institutionen wie die Deutsche Knochenmarkspenderdatei oder Exit, eine Initiative, die Rechtsradikalen beim Ausstieg aus ihrer Szene hilft. Diese Organisationen beraten Facebook. Wie genau, bleibt offen.

Zuckerberg mangelt es nicht an Gestaltungswillen

Eine besondere Rolle spielt die Amadeu Antonio Stiftung. Sie kooperiert nicht nur mit Facebook wie die anderen Organisationen, sondern hat gemeinsam mit dem Netzwerk auch eine Vereinigung namens "Initiative für Zivilcourage" gegründet, dessen Ziel es ist, wie es in einer kleinen Broschüre der Initiative heißt, "Hassrede zu bekämpfen". Die Amadeu Antonio Stiftung ist nach Amadeu Antonio Kiowa benannt, einem Mann, der 1990 in Eberswalde von Neonazis ermordet wurde. Auf ihrer Webseite schreibt sie, sie trete "konsequent gegen Rechtsextremismus ein".

Doch nicht überall, wo "gegen Nazis" draufsteht, ist ausschließlich Demokratie drin. Vorsitzende der Amadeu Antonio Stiftung ist Anetta Kahane, die von 1974 an unter dem Decknamen "Victoria" als Inoffizielle Mitarbeiterin (IM) für die Stasi arbeitete. Nach acht Jahren beendete Kahane die Zusammenarbeit mit dem Unterdrückungsorgan der DDR-Diktatur von sich aus; außerdem stellte sie einen Ausreiseantrag. Seit vielen Jahren nun engagiert sie sich gegen rechts, wobei das Spektrum, das ihre Stiftung bekämpft, von Neonazis bis zu AfD-Wählern reicht.

Wie sinnvoll ist es, dass eine Organisation, die von einem ehemaligen Stasi-Spitzel geleitet wird, heute Einfluss auf den schwierigen Prozess nimmt, in dem zu definieren ist, wo die Grenze zwischen Hass und Meinungsäußerung, zwischen Wut und Diffamierung anderer verläuft? Für die Glaubwürdigkeit derjenigen, die Inhalte letzten Endes löschen, stellt die Konstellation ein Problem dar, wie zahlreiche Kommentare besorgter und verärgerter Nutzer im Netz beweisen. Sie sorgen sich um die Meinungsfreiheit, deren Grad sich eben gerade daran messen lassen muss, dass sich auch AfD-Fans zu Wort melden dürfen.

Wie werden Partner wie die Amadeu Antonio Stiftung überhaupt ausgewählt? Darf die Öffentlichkeit, die reguliert wird, mitbestimmen? Wählen die Nutzer? Bestimmen Parlamente mit? Ein Facebook-Sprecher schreibt, es handele sich bei den Partnern um Organisationen, "von denen wir überzeugt sind, dass sie eine herausragende Expertise bezüglich der länderspezifischen Fragen haben". Auf Deutsch: Facebook entscheidet. Dadurch gestaltet der Konzern die öffentliche Debatte mit, durchaus auch die Definition darüber, was in der digitalen Öffentlichkeit gesagt werden darf, und was nicht.

Facebooks Chef und Gründer Mark Zuckerberg mangelt es nicht an Gestaltungswillen. Er hat dezidierte politische Ansichten und implementiert sie mit der Hilfe seines Unternehmens in die Gesellschaft. Manchmal bildet Facebook wohl weniger die Realität ab, als dass es eine Realität zu schaffen versucht: Vor zwei Jahren führte Facebook 71 verschiedene Optionen im Menüfeld "Geschlecht" ein, wo zuvor "Mann" oder "Frau" auszuwählen war.

Erst vor wenigen Tagen sah sich der Konzern von ehemaligen Mitarbeitern mit dem Vorwurf konfrontiert, systematisch die Verbreitung von Nachrichten vor allem konservativer Medien zu diskriminieren, indem Mitarbeiter händisch in automatisiert erstellte Listen eingegriffen haben sollen. Facebook bestreitet den Vorwurf.

Facebooks Umgang mit der Böhmermann-Debatte bleibt intransparent

Nichtsdestotrotz führt all dies zur Frage, was passiert, wenn Zuckerberg und Facebook ihre Macht missbrauchen. Eine Möglichkeit herauszufinden, was und wie bei Facebook gelöscht wird, wäre, die Menschen zu besuchen, die diese Aufgabe übernehmen. In Deutschland sind das Mitarbeiter der Firma Arvato, die zu Bertelsmann gehört, eine Art von Klick-Fließbandarbeitern.

Gerne wüsste man, wie es ihnen etwa in der hochkomplexen Debatte um Jan Böhmermann und den türkischen Präsidenten Recep Tayyip Erdoğan, die sich auf Facebook hunderttausendfach in Kommentaren und Kommentaren zu Kommentaren fortsetzt, gelingt, ihre Arbeit zu machen: Was ist Beleidigung, was ist Satire, was ist Meinungsäußerung? Was ist legal und was nicht? Was dürfen andere Menschen lesen und was nicht?

Im Fall Böhmermann gegen Erdoğan diskutieren Juristen seit Wochen. Die Lösch- und Sperr-Arbeiter aber haben diese Zeit nicht: Facebook ist stolz darauf, von Nutzern gemeldete Inhalte innerhalb von 24 Stunden zu bearbeiten. Anders als die Festangestellten des Konzerns sitzen die Menschen, die diese schwierige Aufgabe wahrnehmen, nicht in einem schicken Bürogebäude, sondern am Stadtrand von Berlin. Ihre Abteilung heißt "Community Operations". Besuchen kann man sie bislang nicht. Facebook lässt seit Monaten keine Journalisten an diesen Ort, der nicht nur für den Konzern, sondern auch für die Gesellschaft zentral ist.

Darüber hinaus macht Facebook auch auf Nachfrage keine Angaben zu folgenden Fragen: Wie viele Mitarbeiter für diese Einheit arbeiten, wie viele Beschwerden von Nutzern dieses Team täglich erreichen, wie der Arbeitsablauf zwischen den 23 Partnern und Facebook funktioniert, nach welchen Kriterien sie ausgewählt werden, welche Sanktionen - zum Beispiel eine Profilsperrung - es für Nutzer geben kann. Transparent, das sind bei Facebook vor allem die Nutzer.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: