bedeckt München 13°
vgwortpixel

Kindesmissbrauch:Ermittler wollen Pädophile mit Fake-Bildern schnappen

Dateiordner mit Aufschrift Kndrprngrf Symbolfoto kinderpornografische Fotos im Internet

Nach dem Willen des Bundesjustizministeriums soll der Einsatz computergenerierter Bilder in Zukunft erlaubt werden.

(Foto: imago/Christian Ohde)
  • Ein neues Gesetz soll deutschen Ermittlern erlauben, mit Hilfe künstlicher Intelligenz täuschend echte Missbrauchsbilder zu erstellen.
  • Die Behörden halten die Bilder für notwendig: Verdeckte Ermittler erhalten nur dann Zugang zu bestimmten Darknet-Foren, wenn sie sich mit solchen Aufnahmen verifizieren.
  • Unklar ist noch, ob die künstliche Intelligenz anhand von beschlagnahmter, also echter Missbrauchsbildern trainiert werden dürfte.

In den Asservatenkammern deutscher Ermittlungsbehörden lagern viele Gigabyte Aufnahmen von sexualisierter Gewalt gegen Kinder. Beschlagnahmt wurden solche Bild- und Videodateien bei Ermittlungen wegen Kindesmissbrauch. Mit einer neuen Gesetzesinitiative von Bundesjustizministerin Christine Lambrecht (SPD) sollen die Dateien nicht mehr nur diejenigen ins Gefängnis bringen, die sie ursprünglich aufgenommen oder gespeichert haben. Sie sollen auch zukünftige Missbrauchsfälle verhindern.

Ermittlern soll erlaubt werden, künstliche, von Computern erzeugte Missbrauchsbilder einzusetzen, um damit Täter zu überführen. Dass soll ein Problem lösen, vor dem die Polizisten bei Ermittlungen im Darknet, dem anonymen Teil des Internets, häufig stehen: In die Foren, in denen neue und besonders drastische Videos geteilt werden, werden neue Mitglieder - und damit auch verdeckte Ermittler - nur aufgenommen, wenn sie selbst Missbrauchsbilder zur Verfügung stellen. In der Szene wird dieser Test "Keuschheitsprobe" genannt. Regelmäßig muss diese "Prüfung" durch das Hochladen neuer Bilder wiederholt werden, auf einigen Seiten monatlich.

Das Justizministerium hat bereits einen Entwurf für das Gesetz an die Bundestagsfraktionen verschickt, das den Einsatz computergenerierter Bilder in Zukunft erlauben soll. Die Regelung soll Teil des neuen Gesetzes gegen sogenanntes Cybergrooming werden - das Anbahnen von sexuellem Missbrauch, bei dem Täter online Kontakt zu Kindern aufnehmen.

Technisch gibt es mehrere Möglichkeiten, wie solche Bilder künstlich erstellt werden können. Eine Möglichkeit ist, dass ein Computer die Aufnahmen komplett synthetisch errechnet. Eine andere, dass eine künstliche Intelligenz auf der Grundlage älterer Bilder von Missbrauch trainiert wird und daraus neue künstliche Bilder erstellt.

Zwei Netze, die zusammen arbeiten

Süddeutsche Zeitung Politik Die Foto-Fahnder
Sexuelle Gewalt gegen Kinder

Die Foto-Fahnder

Kommen Ermittler bei der Suche nach Missbrauchstätern nicht mehr weiter, legen sie Bilder der Opfer von Übergriffen in Schulen vor. Der Aufwand ist enorm - doch der Erfolg spricht für sich.   Von Ulrike Heidenreich

Welche Regelung das Gesetz am Ende genau erlaubt, darum wird noch gerungen. Aus dem Ministerium heißt es, man bevorzuge die erste Variante. Doch mit dem Thema vertraute Kreise in SPD und CDU plädieren dafür, den Einsatz von sichergestellten Bildern als Trainingsdaten unter bestimmten Umständen zu erlauben. Experten gehen davon aus, dass sich mit beiden Varianten überzeugende Fake-Bilder erstellen lassen. Allerdings ließen sich mithilfe echter Bilder schneller glaubhaft wirkende Aufnahmen erzeugen.

Die für solche Bilder genutzte Technik heißt Generative Adversarial Network (GAN): Dabei arbeiten zwei neuronale Netze - Software, die wie künstliche Gehirne funktionieren soll - zusammen. Eines der Netze erzeugt massenhaft neue Bilder, das andere entscheidet, ob das Bild echt wirkt. Die Entscheidung fällt das zweite Netz auf Grundlage bestehender Trainingsdaten, also echter Bilder, die auf den Servern liegen und mit deren Eigenschaften der Computer die künstlichen Bilder abgleicht. So lernt das System komplett neue, künstliche Bilder zu erstellen, die für den Beobachter echt aussehen. Nachdem das Verfahren 2014 vorgestellt wurde, wurde es von Wissenschaftlern weiterentwickelt, um immer höher aufgelöste Bilder erzeugen zu können.

Der Einsatz selbst generierter Bilder von Missbrauch bringt ein moralisches Dilemma für die Polizei mit sich: Zwar wurde zu ihrer Herstellung keinem Kind tatsächlich Schaden zugefügt. Dennoch stellt sich die Frage, ob der Staat selbst Material in Umlauf bringen sollte, das Täter dann weiterverbreiten können. Indem sie selbst neue Aufnahmen in Umlauf bringen, könnten sie zu einer Eskalationsspirale beitragen, die dazu führen könnte, dass im Darknet immer extremere Bilder kursieren, heißt es sogar aus dem Justizministerium. Die Notwendigkeit überhaupt Einblick in diese Teile des Darknets zu bekommen, die den Ermittlern sonst versperrt sind, überwiege aber.

"Wir haben die moralische und rechtliche Verpflichtung, Kinder zu schützen", sagt auch der SPD-Abgeordnete Johannes Fechner, Obmann im Rechtsausschuss des Bundestages. "Diese Verpflichtung ist deutlich höher zu bewerten als andere moralische Bedenken, die es beim Einsatz einer solchen Technologie geben könnte." Am wichtigsten sei die Vorgabe, dass von den künstlichen Bildern niemals auf echte Missbrauchsbilder geschlossen werden kann. "Die Experten in den Ermittlungsbehörden schließen dies aus."

Wie erfolgreich sich pädophile Täter mit falschen Bildern in die Irre führen lassen, zeigten hessische Ermittler schon 2012 in der Operation Hardes. Innerhalb von zehn Tagen identifizierten sie 39 Täter, die via Webcam vor vermeintlichen Minderjährigen sexuelle Handlungen durchführten. Damals führten die Ermittler die Täter allerdings mit analogen Mitteln in die Irre: Vor der Webcam saß eine jünger geschminkte Polizeibeamtin, in einem gezielt zurecht dekorierten "Kinderzimmer".

Zur SZ-Startseite