Netzkolumne:Kunden, die . . .

Hass und Bomben: Auf Facebook konnte man gezielt Anzeigen schalten für Nutzer, die in ihren Profilen das Wort "Judenhasser" verwenden. Ist das so etwas wie die höhere Macht der Algorithmen? Oder auch eine Frankenstein-Folge des Geschäftsmodells?

Von Michael Moorstedt

In den letzten Wochen hatten die großen IT-Konzerne nicht gerade das, was man als Glückssträhne bezeichnen könnte. Da war zunächst einmal die Tatsache, dass von Russland aus auf Facebook Wahlwerbeanzeigen während der US-Präsidentschaftskampagne geschaltet wurden. Die haben dem Unternehmen nun einen prominenten Platz auf dem Schreibtisch von Sonderermittler Robert Mueller eingehandelt.

Dann wurde bekannt, dass es in der Vergangenheit auf Facebook auch möglich war, Anzeigen gezielt für Nutzer zu schalten, die in ihren Profilen Wörter und Sätze wie "Judenhasser" oder "Wie man Juden verbrennt" geschrieben haben. Inzwischen wurden auch bei Google und Twitter ähnliche Mechanismen entdeckt.

"Es gibt Zeiten, da tauchen Inhalte auf unserer Plattform auf, die unsere Standards verletzen." So ließ sich jetzt ein leitender Facebook-Produktmanager zu der Hasswerbung-Affäre zitieren. Aber das ist eine ziemlich lahme Ausrede. Wenn beispielsweise zu viel nackte Haut auf die Facebook-Server geladen wird, ob mit Absicht oder aus Versehen, werden diese Inhalte normalerweise binnen Stunden gelöscht.

Vergangenen Mittwoch gab es dann bei Amazon einen ähnlichen, wenn nicht sogar noch abseitigeren Vorfall. Der Empfehlungsalgorithmus des Unternehmens gruppierte unter der Rubrik "Häufig zusammen gekauft" einzeln harmlose Produkte zusammen, mit denen man eine Splitterbombe im Eigenbau konstruieren kann. Dazu gehören Kabel, Zünder oder Kugellager als Aushilfsschrapnelle. Alles war nur einen Mausklick voneinander entfernt.

Man werde den Algorithmus untersuchen lassen, heißt es bei Amazon. Ähnliche Versprechen gibt es auch bei Facebook, Google und Twitter. Amoklaufende Algorithmen? Menschliches Versagen ausgeschlossen? Der Algorithmus erscheint in der Argumentation der Tech-Konzerne beinahe als höhere Gewalt, unabwendbar und unberechenbar, beinahe so wie eine digitale Naturkatastrophe.

Der Algorithmus ist der Sündenbock, der von eigenen Verfehlungen ablenkt

Er dient damit aber auch prima als Sündenbock, der von möglichen eigenen Verfehlungen ablenkt. Denn das Gegenteil ist der Fall: Das Versagen der Algorithmen ist ein menschengemachtes Problem, in dem eine dumpfe Technologie es Nutzern erlaubt, moralisch fragwürdige Entscheidungen zu treffen, einfach deshalb, weil sie nicht dafür entwickelt wurde, diese zu verhindern. So wird das Problem der Technik zum Problem ihrer Entwickler. Der Computer hat nur so viel Anstand, wie ihm der Mensch vorgibt.

Man werde die Kategorien für Targeted Ads (zielgerichtete Werbung) in Zukunft per Hand verlesen, versprach Facebook-Geschäftsführerin Sheryl Sandberg am vergangenen Mittwoch. Es sollen auch zusätzliche Mitarbeiter eingestellt werden, die sich nur um dieses Problem kümmern. Reicht das aus? Und wie realistisch ist das überhaupt, wenn es doch vor allem die Automatisierung der Aufmerksamkeit ist, die Facebooks Geschäftsmodell ausmacht? Sandberg schrieb dann noch, dass man nie beabsichtigt oder vorhergesehen habe, dass das System auf diese Art und Weise genutzt werden könnte.

Doch das ist eben die neue Realität für das Netzwerk. Selbstverständlich hat kein Facebook-Mitarbeiter persönlich grünes Licht für russische Propaganda oder Antisemitismus-Müll gegeben. Es hat nur niemand aktiv verhindert. In einer Zeit, in der das Unternehmen nicht mehr nur Plattform zur Selbstentblößung ist, sondern auch Diplomatie-Werkzeug und Tummelplatz für Geheimdienste, erlebt Facebook-Gründer Mark Zuckerberg gerade seinen "Frankenstein"-Moment. Nämlich die Erkenntnis, dass dieses Ungetüm, halb menschlich, halb künstlich, nicht mehr dem Willen seines Schöpfers gehorcht.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: