Carolina Are ist Kulturwissenschaftlerin und tanzt an der Stripperstange. Beides macht sie so gut, dass sie diese Dinge unterrichtet. Doch während ihre akademische Arbeit ohne Tadel ist, gibt es immer wieder Ärger mit den Tanzvideos auf Instagram und Tiktok. Das liegt wohl daran, dass sie bei ihren Performances überwiegend leicht bekleidet auftritt. Für die Plattformen Grund genug, die Inhalte zu sperren.
Das Projekt The Unseen zeigt nun Ares Bilder zusammen mit denen Hunderter anderer Menschen, deren Nutzerkonten und Inhalte aus ebenso vermeintlich nichtigen Gründen gesperrt wurden. Man versuche, "das Ausmaß und die menschlichen Folgen unfairer Zensurpraktiken aufzuzeigen und die Diskussion über Lösungen so voranzutreiben, dass die Stimmen der Betroffenen Gehör finden", heißt es auf der Website. Zu sehen sind auch die Bilder, die der Auslöser waren. Ließe sich anhand des gesperrten Materials gar eine Art Ästhetik des Banns erarbeiten?
Zu sehen sind freilich eine Menge nackter Körper, mal fotografiert, mal auch nur gezeichnet, aber auch eine ganze Menge anderer Motive, die auch auf den zweiten Blick nicht gegen die prüden Kriterien der Plattform verstoßen. Weinende Kinder, Schwarz-Weiß-Porträts faltiger Greise, nicht gerade subtile Tampon-Skulpturen oder Computeranimationen von vage humanoiden Aliens auf der Sonnenbank. Man muss schon sehr zart besaitet sein, um daran Anstoß zu nehmen.
Gründe für die Sperrung der Inhalte werden oft gar nicht oder nur unzulänglich kommuniziert
Verantwortlich für die Zensur sind neben einem Heer von mindestens 15 000 unterbezahlten und überarbeiteten Moderatoren, die auffällige Inhalte prüfen oder sperren, vor allem automatisierte KI-Systeme. Der den Prüfalgorithmen eingetrichterte Puritanismus und die simplen Trigger, die ihn auslösen, wären beinahe lächerlich, wären da nicht die Konsequenzen. Was daraus folgt, ist die weichgespülte visuelle Landschaft, die man von Instagram kennt. Überproportional häufig sind Menschen von den Sperrungen betroffen, die nicht weiß oder nicht schlank sind oder dem Mainstream-Schönheitsideal in anderweitiger Weise nicht entsprechen.
Zusätzlich liefert das Projekt Interviews mit den von der Zensur betroffenen Nutzern, darunter viele hauptberufliche Fotografen, aber auch Aktivisten und Privatpersonen. Sie berichten von existenziellen Ängsten, weil Kundenaufträge ausbleiben, und davon, wie es sich anfühlt, wenn die Arbeit von Jahren durch die Entscheidung eines Computers zunichte gemacht wird.
Schließlich werden die Gründe für die Sperrung der Inhalte oft genug gar nicht oder nur unzulänglich kommuniziert. Den Nutzern bleibt also nichts anderes übrig, als sich die Beweggründe und Mechanismen selbst zusammenzureimen. Viele geben beispielsweise an, dass die von ihnen geposteten Bilder von einem sogenannten "Shadowban" betroffen sind. Darunter versteht man das Phänomen, dass - zumindest für die automatisierten Algorithmen zweideutige - Inhalte zwar nicht explizit gesperrt, aber in ihrer Sichtbarkeit für die Öffentlichkeit reduziert werden. Das Unternehmen selbst hat nie zugegeben, dass es diese Funktion anwendet. Die Nutzer können aber in den Statistiken sehen, wie entsprechende Inhalte schlechter performen, als sie sollten.
Das Problem ist nicht neu. Die Gemeinschaftsrichtlinien des Instagram-Mutterkonzerns Meta, die sich mit öffentlich zur Schau gestellter Nacktheit befassen, befüllen inzwischen ganze Seiten. In der Vergangenheit gab es bereits zahlreiche Hashtag-Kampagnen wie "Free The Nipple" oder "Don't Delete My Body", die gegen die willkürliche Zensur aufbegehrten. Doch öffentlichkeitswirksame Bekenntnisse des Instagram-Chefs Adam Mosseri, sich des Problems der algorithmischen Vorverurteilung anzunehmen, blieben bislang ohne größere Folgen.
Man wolle, "dass Instagram weiterhin ein sicherer Ort für Inspiration und Ausdrucksvermögen ist", heißt es an oberster Stelle der Unternehmensrichtlinien. Das Wörtchen authentisch, das bis vor einiger Zeit noch dort stand, hat man inzwischen wohlweislich gestrichen. Und auch der Rest scheint nicht für alle zu gelten.