Die Richter in Würzburg haben sich von Facebooks Juristen ein Märchen erzählen lassen: von einer "Wundermaschine", so fantastisch, dass sie gar nicht existieren könne. Also wies das Gericht die Klage eines Syrers ab, den Rassisten in Fotocollagen als Terroristen dargestellt hatten. Alle Versionen der Bilder zu löschen, die sich an anderen Orten auf der Plattform befinden, wollten die Richter Facebook jedoch nicht zumuten. Das könne eben nur die Wundermaschine.
Dabei ignorierten sie, dass es diese Möglichkeit schon gibt: Seit Langem filtert Software von Microsoft Missbrauchsfotos von Kindern auf den großen Plattformen, die verbotenen Bilder liegen in einer zentralen Datenbank. Facebook, mit seinen gigantischen Geldreserven und Weltklasse-Programmierern, wäre zu Ähnlichem fähig. Man kann das Urteil also auch als Plädoyer für mehr digitale Bildung unter deutschen Richtern lesen.
Anas Modamani:Facebook muss Falschbehauptungen nicht aktiv suchen und löschen
Ein syrischer Flüchtling wurde auf Facebook als Terrorist verunglimpft. Das Landgericht Würzburg hat seinen Antrag auf einstweilige Verfügung gegen Facebook abgelehnt.
Doch die Frage nach den technischen Lösungen geht am Kern des Problems ohnehin vorbei. Das Problem sind die Masse an ungeahndeten Beleidigungen und Volksverhetzungen und Facebooks Strategie, Betroffene in Deutschland auflaufen zu lassen, nicht nur mit Ausreden über "Wundermaschinen". Das Unternehmen ignoriert Mitglieder und Behörden oft einfach komplett, wenn diese darauf dringen, dass Inhalte gelöscht werden müssen.
Filter können dumm sein
Obwohl Facebook in Deutschland 28 Millionen Nutzer hat, tut das Unternehmen so, als existiere es gar nicht. Facebook besitzt keine Lagerhallen, Geschäfte oder Produktionsstätten, und sein kleines Hamburger Büro ist in juristischen Fragen keine Hilfe. Gleichzeitig verweist der Konzern aber auf seinen deutschen Sitz und reagiert nicht auf Einschreiben, die in Dublin oder Menlo Park ankommen.
Gegen solche Ignoranz helfen keine technischen Lösungen, um strafbare Inhalte aufzuspüren. Ohnehin können automatische Filter nicht zwischen verbotenen und dokumentarischen Beiträgen unterscheiden. So ist auf dem berühmten Foto aus dem Vietnamkrieg zwar ein nacktes Mädchen zu sehen, jedoch käme kein Mensch auf die Idee, das als pornografisch zu werten - Software kann das aktuell noch nicht zuverlässig unterscheiden. Schon heute löschen Facebooks menschliche Mitarbeiter täglich Inhalte aus nicht nachvollziehbaren Gründen. Algorithmen dürften dieses Problem nur noch verschärfen.
Statt Facebook zu zwingen, bestimmte Bilder und Videos aktiv aufzuspüren oder anhand einer schwarzen Liste im Vornherein zu blockieren, sollte die Politik auf einer Kontaktstelle im Unternehmen beharren, die schnell auf Beschwerden reagiert. Sonst bleibt Facebook für immer eine Blackbox.