bedeckt München 22°

Internetzensur:Facebook muss Verantwortung übernehmen

Facebook launches private photo sharing for friends

Facebook muss sich seiner publizistischen und gesellschaftspolitischen Verantwortung bewusst werden.

(Foto: AFP)
  • Facebook löscht regelmäßig Beiträge, weil diese angeblich gegen die Gemeinschaftsrichtlinien des Netzwerks verstoßen.
  • Durch seine enorme Verbreitung wird Facebook auch eine gesellschaftspolitische Verantwortung zuteil.
  • Der Konzern ist mehr als eine neutrale Plattform und sollte Zensur nicht mit dem Hinweis auf "Community-Standards" rechtfertigen.

Im Mai überfuhr in Philadelphia ein schwimmfähiges Auto für Touristen, das wie eine Ente aussieht, eine Frau. Die Frau starb. Der ehemalige Journalist Jim MacMillan beobachtete das Drama und weil er wusste, dass ein Enten-Auto in seiner Stadt schon einmal einen tödlichen Unfall verursacht hatte, machte er Bilder.

Eines davon, auf dem man das Opfer nicht sah, wählte er mit Bedacht aus und lud es auf Instagram hoch. Instagram ist ein soziales Netzwerk für Bilder, das zu Facebook gehört. MacMillan teilte sein Bild auf Instagram so, dass es auch auf seinem Facebook-Profil zu sehen war. Doch auf beiden Netzwerken sei es nur kurz zu sehen gewesen, schreibt MacMillan am 14. Juni auf Facebook, denn die Bilder seien wie von Geisterhand verschwunden.

Heiko Maas verstößt gegen Facebooks Werbeanzeigerichtlinien

Zwei Tage später beschwert sich das SPD-Organ Vorwärts öffentlich auf der eigenen Facebook-Seite, Facebook habe sich geweigert, einen Text des Blattes zu bewerben, mit dem Hinweis der Beitrag sei "nicht beworben worden, da er die Facebook Werbeanzeigerichtlinien aufgrund von vulgären Ausdrücken verletzt, die sich auf das Alter, das Geschlecht, den Namen, die ethnische Herkunft, den physischen Zustand oder die sexuelle Orientierung einer Person beziehen". In dem Text ging es um Bundesjustizminister Heiko Maas, dessen plötzliche Zustimmung zur Vorratsdatenspeicherung man vielleicht obszön finden mag - aber ein Verstoß gegen Werbeanzeigerichtlinien ist etwas anderes.

Kunst Zensur wie im Mittelalter
Analyse
Facebook-Richtlinien und Kunst

Zensur wie im Mittelalter

Wenn es um die Zensur von Inhalten geht, tun sich bei Facebook regelmäßig neue Abgründe auf. Jetzt wurde der Account des Kunstkritikers Jerry Saltz gesperrt - weil er spätmittelalterliche Gemälde mit Folterszenarien hochgeladen hatte.   Von Willi Winkler

Facebook äußert sich zu beiden Fällen nicht offiziell. Der Fall des Vorwärts könnte sich als technischer Fehler von Facebook entpuppen. MacMillan ließ die Firma wissen, er habe sein Bild vielleicht nie hochgeladen. Also viel Lärm um nichts? Hatte MacMillan nur einen Benutzerfehler begangen? Er selbst sieht nur eine Sache, der er sich schuldig gemacht haben könnte: "Ganz klar habe ich den Fehler gemacht, einer privaten Plattform mit wenig Interesse an Wahrheit und Geschichte zu vertrauen."

Und dementsprechend stellen diese kleinen - und inhaltlich gesehen eher unbedeutenden - Fälle eine ganz andere Frage. Nämlich: Weiß Facebook um die eigene gesellschaftliche Verantwortung?

Für viele Menschen ist Facebook die einzige Nachrichtenquelle

Der gnadenlose Erfolg des Konzerns gründet sich darauf, möglichst viel zu sein und möglichst viel zu können. Seine Dienste ermöglichen Kommunikation zwischen Menschen, wie es sie bislang nicht gab. Das bedeutet, dass sich Menschen mit Facebook fundamental anders informieren als bislang. So kommt es, dass Facebook auch Aufgaben übernimmt, die bislang Verlage übernommen haben, nämlich das institutionell kontrollierte Veröffentlichen von Informationen. Facebook stärkt diese verlegerische Tätigkeit.

Erst vor Kurzem führte der Konzern eine neue Möglichkeit für Redaktionen ein, direkt auf Facebook Artikel zu veröffentlichen. Im Unterschied zu allen Verlagen aller Zeiten agiert Facebook global. Das bedeutet, dass selbst von kleinsten Fehlern bei Facebook - Probleme beim Upload oder in der Technik - potenziell Millionen Menschen schaden können. Das Zeitalter, in dem die Fehler digitaler Maschinen signifikante Auswirkungen auf das Leben von Menschen haben, hat begonnen. Facebook ist für viele Menschen auf der Welt die erste - oft sogar: einzige - Nachrichtenquelle.

Eine nackte Brust ist für Facebook ein Grund zum Löschen

Chris Cox, Chief Produkt Officer von Facebook, wurde vor ein paar Tagen in dieser Frage von Jochen Wegner, Chefredakteur von Zeit Online, öffentlich interviewt. Cox verwies auf Facebook-Richtlinien, die Community-Standards. Texte, Bilder, Videos, die gegen diese verstoßen, werden gelöscht. Diese Richtlinien verbieten einerseits Inhalt, der ohnehin gesetzlich verboten ist. Sie sind aber weiter gefasst. Einen Text über Brustkrebs mit einem nach deutschen Vorstellungen kaum jugendgefährdendem Bild einer nackten Brust zu bebildern, reicht aus, damit der Text auf Facebook gelöscht wird. Das Selbstverständnis, das dahinter liegt, ist das eines erfolgreichen Technologie-Konzerns: mein Produkt, meine Regeln. Facebook ist aber längst mehr als ein Tech-Konzern.

Polizei Wenn Eltern ihren Kindern mit der Polizei drohen
Interview
Viraler Facebookpost

Wenn Eltern ihren Kindern mit der Polizei drohen

Die Polizei in Hagen bittet Eltern auf Facebook, nervenden Kindern nicht mit der Polizei zu drohen. Der Post wird Zehntausende Male geteilt und heftig diskutiert. Ein Gespräch mit Initiator Tino Schäfer über eingeschüchterte Kinder - und eine Drohung seiner Eltern.   Von Jannis Brühl

Facebook muss deshalb politische und gesellschaftliche Aufgaben bewältigen, nicht technologische. Der Konzern wird sich der Debatte stellen müssen, wie viel Unabhängigkeit er Menschen (und Redaktionen), die auf Facebook publizieren, zugesteht. Jeff Jarvis, der bekannte amerikanische Internet-Apologet, verteidigt den Konzern (natürlich auf Facebook). Er fordert eine Debatte, schreibt aber auch: "Facebook hat sich bislang wohl gar nicht als ,Publisher' gesehen." Das mag sein. Aber wie wenig Reflexionsvermögen darf man einem Konzern zutrauen, der in der Lage ist, die halbe Welt in wenigen Jahren mit neuen Ideen auseinanderzunehmen?

Google könnte ein Vorbild sein

Sehr wohl schwingt in der Debatte die Angst vor Zensur durch Facebook mit. Täglich werden tausende Nutzer gesperrt und Millionen Inhalte gelöscht. Wer kontrolliert den Kontrolleur? Die sozialen und rechtlichen Grundlagen von Meinungsfreiheit wurden in Europa über Jahrhunderte mit hohen Kosten erkauft. Wäre nicht eine größere Debatte angemessen, als ein Hinweis auf die "Community-Standards"?

Ein Vorbild könnte absurderweise ein anderer Technologiekonzern sein: Google sah sich vor Jahren mit einem europäischen Gesetzesurteil konfrontiert, das den Konzern dazu zwang, sich mit der Frage von Vergangenheit in einer Welt zu beschäftigen, in der alles speicherbar ist. Google ließ daraufhin unabhängige Experten in europäischen Ländern über gesellschaftliche Auswirkungen und technische Umsetzung beraten, wohl wissend, dass die Entscheidungen des Konzerns das Leben von Millionen Menschen beeinflussen.