Facebook-Algorithmus:Facebook zensiert Seite des Städtchens Bitche

Facebook-Algorithmus: Nach Bitche bitte links abbiegen: Das Städtchen im Département Moselle würde sich über einen Besuch von Mark Zuckerberg freuen.

Nach Bitche bitte links abbiegen: Das Städtchen im Département Moselle würde sich über einen Besuch von Mark Zuckerberg freuen.

(Foto: Thomas Wirth/AFP)

Der Facebook-Algorithmus hat zugeschlagen und "Ville de Bitche" als Schimpfwort identifiziert - nicht der erste Fall von Fehlzensur.

Von Kathrin Werner

Künstliche Intelligenz kann ziemlich doof sein. Und nicht nur das: Im Falle von Facebooks KI paart sich mangelnde Schlauheit obendrein mit strengen Moralvorstellungen. Böse Wörter darf man bei Facebook nicht verwenden - oder was die Algorithmen eben für böse Wörter halten.

Die Zensur des sozialen Mediums hat nun Bitche getroffen, ein beschauliches Städtchen im ehemaligen Lothringen mit 5000 Einwohnern und einer alten Zitadelle. Der Name Ville de Bitche kam gar nicht gut an bei der automatisierten Sprachpolizei. Schließlich ist das Wort Bitche nah dran am englischen Schimpfwort bitch. Die bitch an sich ist zwar nichts als eine völlig wertfreie Hündin. Im alltäglichen Sprachgebrauch sind bitch und die Ableitung son of a bitch aber meist sexistische Beleidigungen, die auf die Freizügigkeit läufiger Hündinnen anspielen.

Der Internetkonzern konnte zwischen Bitche und bitch jedenfalls nicht unterscheiden und hat die Facebook-Seite der kleinen Stadt einfach abgeschaltet, ohne Vorwarnung und ohne Nachfrage. Nachfragen oder nachdenken kann künstliche Intelligenz nicht.

Einladung an Mark Zuckerberg

"Der Name unserer Stadt schien unter einer Fehlinterpretation zu leiden", sagt Benoît Kieffer, der Bürgermeister Bitches. Nach wochenlangem Hin und Her, Dutzenden Facebook-Nachrichten, Hilfsgesuchen, Appellen und Einträgen in Kontaktformulare, hat sich Facebook nun für die Unannehmlichkeiten entschuldigt und die Seite wieder freigeschaltet. Kieffer lud daraufhin Facebook-Chef Mark Zuckerberg nach Bitche ein - zur Besichtigung der "schönen Festungsstadt" und zur Diskussion. "Was mit der Stadt Bitche geschah, zeigt die Unzulänglichkeit von Moderationsinstrumenten, die nur ein menschliches Auge wirklich anwenden kann, besonders wenn es um die Überprüfung von Quellen geht."

Facebooks Zensuralgorithmus schlägt gerne mal in völlig albernen Situationen zu. Zum Beispiel ist es gar nicht leicht, in einer Facebook-Gruppe zum Thema Babystillen die richtige Anlegetechnik zu demonstrieren, selbst in Schaubildern. Brüste und Brustwarzen sind auf Facebook streng verboten, und die im Internet trainierte KI ist gut darin, sie aufzuspüren. Was absichtlich gestreute Fehlinformationen oder Hate Speech angeht, versagt sie allerdings oft.

KI ist billiger - und schmerzfrei

Trotzdem setzt der Internetkonzern zunehmend auf das automatisierte Aufspüren solcher Inhalte - weil menschliche Zensur nicht nur teurer ist, sondern die Durchsicht beleidigender, diskriminierender oder anderweitig unerwünschter Aussagen und Bilder Menschen großen psychischen Belastungen aussetzt. Der Konzern, der im vergangenen Jahr fast 86 Milliarden Dollar Umsatz vor allem durch Werbung erwirtschaftete, arbeitet ständig an der Verbesserung der KI, allein schon weil Werbekunden zunehmend Druck ausüben, jetzt wirklich gegen diese unerwünschten Inhalte vorzugehen.

Der US-Konzern hätte all die Aufregung um Bitche jedenfalls vermeiden können, wenn er die KI von Historikern hätte trainieren lassen. Schließlich haben einst Amerikaner der 100. Infanterie-Division aus dem Bundesstaat South Carolina das französische Städtchen von der deutschen Besatzung befreit - und bezeichneten sich stolz als "Sons of Bitche".

Zur SZ-Startseite
Aras

SZ PlusKünstliche Intelligenz
:Der Papagei hat etwas Rassistisches gesagt

Die Debatte um Diversität und Diskriminierung ist die größte gesellschaftliche Revolution seit 1968. Sie erfasst nun die Zukunftstechnologien der künstlichen Intelligenz - weil die den Menschen nach dem Mund reden.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: