Süddeutsche Zeitung

Facebook:Millionen kindergefährdender Inhalte gelöscht

  • Facebook geht gegen kinderpornografische Inhalte und sexuellen Missbrauch vor. Dabei setzt das Unternehmen offenbar immer stärker auf künstliche Intelligenz.
  • Über einen Zeitraum von drei Monaten hat das Unternehmen nach eigenen Angaben 8,7 Millionen kinder- und jugendgefährdender Inhalte entfernt und infolgedessen Nutzerkonten gelöscht.
  • Kritiker werfen dem Unternehmen vor, dass es beim Löschen von Dateien immer wieder zu Fehlern komme.

Von Philipp von Nathusius und Jannis Brühl

Löschzentren, Uploadfilter, künstliche Intelligenz: Facebook setzt viel daran, Dateien und Beiträge von seiner Plattform zu verbannen, die gegen eigene Richtlinien oder Gesetze verstoßen. Wie das Unternehmen nun mitteilte, seien allein im vergangenen Quartal 8,7 Millionen Inhalte entfernt worden, die gegen Facebooks Kinderschutzstandards verstoßen hätten. Etwa solche, die eindeutig kinderpornografisch sind, aber auch andere, auf denen Kinder nackt zu sehen sind.

Zu den gelöschten Dateien zählten aber auch vermeintlich harmlose Bilder, etwa solche, die Kinder in der Badewanne zeigen, wie das Unternehmen in einem Statement offenlegt. So wolle man potenziellem Missbrauch vorbeugen.

99 Prozent der Löschungen seien erfolgt, ohne dass die Bilder von anderen Nutzern zuvor an Facebook gemeldet worden waren. Sie wurden maschinell erkannt. Ein Erfolg, zumindest in den Augen von Facebook, der in großen Teilen auf den Einsatz neu entwickelter Technologien zurückgehe. Neben einem Datenbank-Abgleich mit bereits zuvor als illegal identifizierten Bildern seien auch Programme im Einsatz, die auf künstlicher Intelligenz und maschinellem Lernen basieren. Zuvor wurde eine einzige Software sowohl gegen Erwachsenenpornografie als auch gegen Beiträge, die den Missbrauch von Kindern zeigen, eingesetzt.

Kritiker warnen vor Fehlern beim Löschen

Die neuen Programme identifizieren selbständig Muster, die auf Kinderpornografie oder problematische Darstellungen von Kindern hindeuteten. Kritiker weisen jedoch darauf hin, dass Facebook immer wieder Fehler passieren und Bilder, die etwa dokumentarischen Charakter haben, entfernt werden - wie etwa bei dem berühmten Foto eines nackten Napalm-Opfers aus dem Vietnamkrieg.

Sobald Facebook kinder- und jugendgefährdende Inhalte identifiziert, leite das Unternehmen nach eigenen Angaben die Daten an die Kinderhilfsorganisation NCMEC (National Center for Missing and Exploited Children) weiter. Diese wiederum weltweit mit staatlichen Behörden zusammen, unter anderem wenn es darum geht, strafrechtliche Ermittlungen einzuleiten oder gefährdete Kinder in Obhut zu nehmen. Facebook selbst lösche Nutzerkonten, die entsprechende Inhalte verbreiten. Dies gelte auch für Profile von Nutzern, die gezielt Minderjährige kontaktieren würden, um etwa an Nacktbilder zu gelangen. Die Facebook-Richtlinien gestatten eine Nutzung des sozialen Netzwerkes ab einem Alter von 13 Jahren.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4185081
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ.de/rus
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.