Daten:Schwarz, schwärzer, Facebook

Lesezeit: 2 min

Was der Internetkonzern wann, warum und auf wessen Wunsch löscht, bleibt ominös. Je mehr die Verantwortungslosigkeit des Unternehmens herausgestellt wird, desto eher wird es seine merkwürdigen Geschäftspraktiken ändern.

Von Jan Heidtmann

Studenten der Betriebswirtschaftslehre lernen früh das Phänomen der Blackbox kennen: Rohstoffe gehen in ein Unternehmen hinein, Produkte kommen heraus. Was aber genau im Inneren geschieht, das ist teils so verschlungen, dass es nicht vollständig zu erklären sei. So gesehen, ist Facebook ein perfektes Unternehmen. Die Daten der Nutzer gehen zu Millionen hinein, Postings, Timelines, Newsfeeds kommen heraus. Warum aber genau diese Inhalte hinausgelangen und warum andere Postings nicht, das ist ein Rätsel. Facebook ist da eine der schwärzesten unter den Blackboxes.

Die Kriterien, wann etwas geteilt werden kann und wann es gelöscht gehört, sind um so ominöser, da sie teils zu abstrusen Ergebnissen führen. In der vergangenen Woche zum Beispiel hatte Facebook ein Posting gelöscht, das ein ikonografisches Bild eines Mädchens zeigte, das während des Vietnamkriegs vor US-Napalmangriffen wegrennt. Als Grund für den Eingriff wurde die Nacktheit des Mädchens angeführt. Gleichzeitig streitet das Unternehmen mit einem 14-jährigen Mädchen und seinen Anwälten, die Facebook verklagen wollen. Anlass ist ein Nacktfoto des Mädchens, welches trotz Ermahnung wiederholt auf Facebook gezeigt werden konnte.

Das Unternehmen reagierte wie so oft und erklärte nichts. "Wir möchten, dass sich die Menschen sicher fühlen, wenn sie Facebook verwenden", schreibt Facebook dafür in seinen "Gemeinschaftsstandards". "Um den Bedarf, die Sicherheit und das Interesse unserer heterogenen Gemeinschaft auszubalancieren, entfernen wir vielleicht empfindliche Inhalte." Doch warum werden dann wochenlang Mordaufrufe und Hassbotschaften gegen Flüchtlinge nicht gelöscht? Gleichzeitig aber verschwinden die Seiten russischer Oppositioneller in kürzester Zeit. Warum werden Nutzerkonten gesperrt, wenn das Foto einer PKK-Flagge auftaucht oder Hartz-IV-Sätze mit Leistungen für Asylbewerber verglichen werden? Letztendlich entscheiden einige Mitarbeiter bei Facebook darüber, wann ein Posting ein Hassposting ist, wann IS-Propaganda gefährlich wird und ob rechte Wut schlimmer als linke Wut ist.

Rätselhafte Kriterien: Wer löscht was - und warum?

Freiwillig, so viel ist klar, wird das Unternehmen die Verfügungsgewalt über seine Daten nicht abgeben. Das mag sogar verständlich sein. Denn zum einen ist die Debatte um Zensur und Freiheit im Netz brisant für das Unternehmen. Bereits jetzt muss sich Facebook gegen Klagen wegen des Verstoßes gegen die freie Meinungsäußerung erwehren. Andererseits steckt in der Blackbox zur Verarbeitung der Nutzerdaten der Quellcode des Unternehmens. Was dort geschieht, ist für Facebook so wichtig wie die geheime Coca-Cola-Formel für den Getränkekonzern.

Kritik an seinem Vorgehen kontert das Unternehmen mit der einfachen Formel: Wir sind ein Technologiekonzern und keine Verleger. Andersherum: Die Inhalte sind nicht unser Geschäft, sondern nur die Plattform. Das ist natürlich Unsinn, Facebooks Nachrichten ersetzen für viele Menschen längst alle anderen Nachrichtenkanäle. Doch mit weit mehr als einer Milliarde Nutzern im Rücken kann Facebook auch weiterhin eine Blackbox bleiben.

Daran können nur öffentlichkeitswirksame Prozesse wie der des 14-jährigen Mädchens etwas ändern. Oder auch die Versuche von Politikern wie Bundesjustizminister Heiko Maas, Facebook einzuhegen. Je mehr die Verantwortungslosigkeit des Unternehmens herausgestellt wird, desto eher wird es seine Geschäftspraktiken ändern. Nachdem Facebook das Posting des Autors der norwegischen Zeitung Aftenposten mit dem Vietnam-Bild gelöscht hatte, formulierte der Chefredakteur auf der gesamten Seite eins seine Wut über den Unternehmensgründer Zuckerberg: "Hör zu, Mark, das ist ernst."

© SZ vom 14.09.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: