Süddeutsche Zeitung

Kindesmissbrauch:Ermittler wollen Pädophile mit Fake-Bildern schnappen

  • Ein neues Gesetz soll deutschen Ermittlern erlauben, mit Hilfe künstlicher Intelligenz täuschend echte Missbrauchsbilder zu erstellen.
  • Die Behörden halten die Bilder für notwendig: Verdeckte Ermittler erhalten nur dann Zugang zu bestimmten Darknet-Foren, wenn sie sich mit solchen Aufnahmen verifizieren.
  • Unklar ist noch, ob die künstliche Intelligenz anhand von beschlagnahmter, also echter Missbrauchsbildern trainiert werden dürfte.

Von Max Hoppenstedt, Berlin

In den Asservatenkammern deutscher Ermittlungsbehörden lagern viele Gigabyte Aufnahmen von sexualisierter Gewalt gegen Kinder. Beschlagnahmt wurden solche Bild- und Videodateien bei Ermittlungen wegen Kindesmissbrauch. Mit einer neuen Gesetzesinitiative von Bundesjustizministerin Christine Lambrecht (SPD) sollen die Dateien nicht mehr nur diejenigen ins Gefängnis bringen, die sie ursprünglich aufgenommen oder gespeichert haben. Sie sollen auch zukünftige Missbrauchsfälle verhindern.

Ermittlern soll erlaubt werden, künstliche, von Computern erzeugte Missbrauchsbilder einzusetzen, um damit Täter zu überführen. Dass soll ein Problem lösen, vor dem die Polizisten bei Ermittlungen im Darknet, dem anonymen Teil des Internets, häufig stehen: In die Foren, in denen neue und besonders drastische Videos geteilt werden, werden neue Mitglieder - und damit auch verdeckte Ermittler - nur aufgenommen, wenn sie selbst Missbrauchsbilder zur Verfügung stellen. In der Szene wird dieser Test "Keuschheitsprobe" genannt. Regelmäßig muss diese "Prüfung" durch das Hochladen neuer Bilder wiederholt werden, auf einigen Seiten monatlich.

Das Justizministerium hat bereits einen Entwurf für das Gesetz an die Bundestagsfraktionen verschickt, das den Einsatz computergenerierter Bilder in Zukunft erlauben soll. Die Regelung soll Teil des neuen Gesetzes gegen sogenanntes Cybergrooming werden - das Anbahnen von sexuellem Missbrauch, bei dem Täter online Kontakt zu Kindern aufnehmen.

Technisch gibt es mehrere Möglichkeiten, wie solche Bilder künstlich erstellt werden können. Eine Möglichkeit ist, dass ein Computer die Aufnahmen komplett synthetisch errechnet. Eine andere, dass eine künstliche Intelligenz auf der Grundlage älterer Bilder von Missbrauch trainiert wird und daraus neue künstliche Bilder erstellt.

Zwei Netze, die zusammen arbeiten

Welche Regelung das Gesetz am Ende genau erlaubt, darum wird noch gerungen. Aus dem Ministerium heißt es, man bevorzuge die erste Variante. Doch mit dem Thema vertraute Kreise in SPD und CDU plädieren dafür, den Einsatz von sichergestellten Bildern als Trainingsdaten unter bestimmten Umständen zu erlauben. Experten gehen davon aus, dass sich mit beiden Varianten überzeugende Fake-Bilder erstellen lassen. Allerdings ließen sich mithilfe echter Bilder schneller glaubhaft wirkende Aufnahmen erzeugen.

Die für solche Bilder genutzte Technik heißt Generative Adversarial Network (GAN): Dabei arbeiten zwei neuronale Netze - Software, die wie künstliche Gehirne funktionieren soll - zusammen. Eines der Netze erzeugt massenhaft neue Bilder, das andere entscheidet, ob das Bild echt wirkt. Die Entscheidung fällt das zweite Netz auf Grundlage bestehender Trainingsdaten, also echter Bilder, die auf den Servern liegen und mit deren Eigenschaften der Computer die künstlichen Bilder abgleicht. So lernt das System komplett neue, künstliche Bilder zu erstellen, die für den Beobachter echt aussehen. Nachdem das Verfahren 2014 vorgestellt wurde, wurde es von Wissenschaftlern weiterentwickelt, um immer höher aufgelöste Bilder erzeugen zu können.

Der Einsatz selbst generierter Bilder von Missbrauch bringt ein moralisches Dilemma für die Polizei mit sich: Zwar wurde zu ihrer Herstellung keinem Kind tatsächlich Schaden zugefügt. Dennoch stellt sich die Frage, ob der Staat selbst Material in Umlauf bringen sollte, das Täter dann weiterverbreiten können. Indem sie selbst neue Aufnahmen in Umlauf bringen, könnten sie zu einer Eskalationsspirale beitragen, die dazu führen könnte, dass im Darknet immer extremere Bilder kursieren, heißt es sogar aus dem Justizministerium. Die Notwendigkeit überhaupt Einblick in diese Teile des Darknets zu bekommen, die den Ermittlern sonst versperrt sind, überwiege aber.

"Wir haben die moralische und rechtliche Verpflichtung, Kinder zu schützen", sagt auch der SPD-Abgeordnete Johannes Fechner, Obmann im Rechtsausschuss des Bundestages. "Diese Verpflichtung ist deutlich höher zu bewerten als andere moralische Bedenken, die es beim Einsatz einer solchen Technologie geben könnte." Am wichtigsten sei die Vorgabe, dass von den künstlichen Bildern niemals auf echte Missbrauchsbilder geschlossen werden kann. "Die Experten in den Ermittlungsbehörden schließen dies aus."

Wie erfolgreich sich pädophile Täter mit falschen Bildern in die Irre führen lassen, zeigten hessische Ermittler schon 2012 in der Operation Hardes. Innerhalb von zehn Tagen identifizierten sie 39 Täter, die via Webcam vor vermeintlichen Minderjährigen sexuelle Handlungen durchführten. Damals führten die Ermittler die Täter allerdings mit analogen Mitteln in die Irre: Vor der Webcam saß eine jünger geschminkte Polizeibeamtin, in einem gezielt zurecht dekorierten "Kinderzimmer".

Im Darknet dient die Verifikation durch neue Bilder zum einen dazu, vor allem solche Nutzer in die Foren bringen, die "Zugriff" auf ein Kind haben. So wird in der Szene verharmlosend ein laufender Missbrauch beschrieben. Zum anderen haben die Betreiber der Foren die "Tests" eingeführt, um zu verhindern, dass ihre Foren von verdeckten Ermittlern infiltriert werden können.

Tatsächlich sind verdeckte Ermittler für die Polizei praktisch die einzige Möglichkeit, um Täter im Darknet zu identifizieren. Die Daten lagern auf besonders geschützten und anonymisierten Servern. Nutzer können sich auf den Plattformen nur mit spezieller Software wie dem Tor-Browser einwählen. Die verschleiert die tatsächliche Internet-Adresse der Benutzer über eine lange Serverkette, so dass Ermittler keine Chance haben, herauszufinden, von wo aus die Aufnahmen hochgeladen wurden. Täter mit Hacking-Werkzeugen wie Staatstrojaner-Software zu enttarnen, wäre extrem aufwendig und funktioniert zudem nur selten.

Foren für Kinderpornografie mit 100 000 Mitgliedern

"Jeder Tag, den wir länger mit Ermittlern in diesen Foren unterwegs sein können, bedeutet, dass wir einen weiteren Tag zusätzliche Informationen bekommen und Täter identifizieren können", sagt Oberstaatsanwalt Thomas Goger. Er ist stellvertretender Leiter der bayerischen Zentralstelle Cybercrime (ZCB) in Bamberg. Die bayerischen Spezialermittler haben schon mehrere Verfahren gegen Kinderpornografie-Plattformen im Darknet geführt. So ermittelten sie 2016 gegen eine Plattform, der ihre Betreiber den zynischen Namen "The Giftbox Exchange" ("Geschenke-Tauschbörse") gegeben hatten. 45 000 Nutzer aus aller Welt waren auf der Seite angemeldet, auch die Bamberger Spezialisten waren mit verdeckten Ermittlern vertreten. Doch in das spezielle Unterforum mit dem Namen "Producers Lounge" konnten sie keinen dauerhaften Einblick bekommen. Hier tauschten sich diejenigen aus, die neue Aufnahmen von Kindesmissbrauch erstellt hatten.

Mit den computergenerierten Bildern hätten die Bamberger weiter ermitteln können, sagen sie. So aber hätten sie aufgeben müssen, als die obligatorische Verifizierung des von ihnen genutzten Accounts anstand. Dadurch konnten sie eine wichtige Spur nicht weiterverfolgen: Ein deutscher Moderator von "Giftbox Exchange" wurde später Administrator der Nachfolgeseite Elysium. Rund hunderttausend Nutzer tauschten hier über ein Jahr lang schwere Missbrauchsaufnahmen, bis die Seite von deutschen Ermittlern abgeschaltet wurde.

Der Einsatz der computergenerierten Aufnahmen soll allerdings begrenzt sein und sich auf Ermittlungen gegen jene Intensivtäter beschränken, die sich im Darknet besonders schützen. Man rechne mit wenigen gezielten Aktionen und nicht damit, hunderte computergenierte Bilder in Umlauf zu bringen, heißt es aus Ermittlerkreisen.

"Für uns sind nicht die Bildserien von höchster Bedeutung, die seit den 80ern kursieren, sondern neu produzierte Bilder und Videos", sagt Thomas Goger. "Neue Aufnahmen bedeuten nämlich immer auch einen aktuell laufenden sexuellen Missbrauch von Kindern."

Nur ausgewählte Spezialisten sollen die computergenerierten Bilder erstellen

Die computergenerierten Aufnahmen werden die deutschen Behörden wohl selbst erstellen. Expertise wäre zum Beispiel beim Bundeskriminalamt vorhanden. Geplant ist allerdings die Beschränkung, dass nur bestimmte, technisch affine Behörden, wie das BKA, Landeskriminalämter oder Cybercrime-Sonderstellen wie in Bamberg Bilder erstellen dürfen. Ob die Ermittler dafür Software einkaufen müssen oder eigene entwickeln, ist noch nicht klar.

Das neue Gesetz soll allerdings nur computergenerierte Bilder legalisieren, Videoaufnahmen sollen nicht erlaubt werden. "Technisch wären in einigen Jahren sicherlich auch Videos möglich, letztlich ist das vor allem eine Frage des Aufwands", sagt Goger. "Über die Fähigkeiten von Hollywood verfügen wir derzeit nicht."

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4726598
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ.de/jab/mri
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.