bedeckt München 28°

Facebook:Millionen kindergefährdender Inhalte gelöscht

Facebook

Beim Löschen problematischer Inhalte setzt Facebook zunehmend auf künstliche Intelligenz.

(Foto: Silas Stein/dpa)
  • Facebook geht gegen kinderpornografische Inhalte und sexuellen Missbrauch vor. Dabei setzt das Unternehmen offenbar immer stärker auf künstliche Intelligenz.
  • Über einen Zeitraum von drei Monaten hat das Unternehmen nach eigenen Angaben 8,7 Millionen kinder- und jugendgefährdender Inhalte entfernt und infolgedessen Nutzerkonten gelöscht.
  • Kritiker werfen dem Unternehmen vor, dass es beim Löschen von Dateien immer wieder zu Fehlern komme.

Löschzentren, Uploadfilter, künstliche Intelligenz: Facebook setzt viel daran, Dateien und Beiträge von seiner Plattform zu verbannen, die gegen eigene Richtlinien oder Gesetze verstoßen. Wie das Unternehmen nun mitteilte, seien allein im vergangenen Quartal 8,7 Millionen Inhalte entfernt worden, die gegen Facebooks Kinderschutzstandards verstoßen hätten. Etwa solche, die eindeutig kinderpornografisch sind, aber auch andere, auf denen Kinder nackt zu sehen sind.

Zu den gelöschten Dateien zählten aber auch vermeintlich harmlose Bilder, etwa solche, die Kinder in der Badewanne zeigen, wie das Unternehmen in einem Statement offenlegt. So wolle man potenziellem Missbrauch vorbeugen.

99 Prozent der Löschungen seien erfolgt, ohne dass die Bilder von anderen Nutzern zuvor an Facebook gemeldet worden waren. Sie wurden maschinell erkannt. Ein Erfolg, zumindest in den Augen von Facebook, der in großen Teilen auf den Einsatz neu entwickelter Technologien zurückgehe. Neben einem Datenbank-Abgleich mit bereits zuvor als illegal identifizierten Bildern seien auch Programme im Einsatz, die auf künstlicher Intelligenz und maschinellem Lernen basieren. Zuvor wurde eine einzige Software sowohl gegen Erwachsenenpornografie als auch gegen Beiträge, die den Missbrauch von Kindern zeigen, eingesetzt.

Kritiker warnen vor Fehlern beim Löschen

Die neuen Programme identifizieren selbständig Muster, die auf Kinderpornografie oder problematische Darstellungen von Kindern hindeuteten. Kritiker weisen jedoch darauf hin, dass Facebook immer wieder Fehler passieren und Bilder, die etwa dokumentarischen Charakter haben, entfernt werden - wie etwa bei dem berühmten Foto eines nackten Napalm-Opfers aus dem Vietnamkrieg.

Sobald Facebook kinder- und jugendgefährdende Inhalte identifiziert, leite das Unternehmen nach eigenen Angaben die Daten an die Kinderhilfsorganisation NCMEC (National Center for Missing and Exploited Children) weiter. Diese wiederum weltweit mit staatlichen Behörden zusammen, unter anderem wenn es darum geht, strafrechtliche Ermittlungen einzuleiten oder gefährdete Kinder in Obhut zu nehmen. Facebook selbst lösche Nutzerkonten, die entsprechende Inhalte verbreiten. Dies gelte auch für Profile von Nutzern, die gezielt Minderjährige kontaktieren würden, um etwa an Nacktbilder zu gelangen. Die Facebook-Richtlinien gestatten eine Nutzung des sozialen Netzwerkes ab einem Alter von 13 Jahren.

Social Media Facebook-Nutzer sollen Nacktbilder hochladen, um sich vor Rachepornografie zu schützen

IT-Sicherheit

Facebook-Nutzer sollen Nacktbilder hochladen, um sich vor Rachepornografie zu schützen

Betroffene können sich die Aufnahmen im Messenger selbst schicken. Dann will Facebook verhindern, dass Dritte das Bild erneut veröffentlichen.   Von Simon Hurtz