bedeckt München 20°

Kinderpornografie:Künstliches Grauen

Echt und echter

Die Technik, bei der eine künstliche Intelligenz auf der Grundlage älterer Bilder von Missbrauch trainiert, heißt Generative Adversarial Network (GAN): Dabei arbeiten zwei neuronale Netze - Software, die wie künstliche Gehirne funktionieren soll - zusammen. Eines der Netze erzeugt massenhaft neue Bilder, das andere entscheidet, ob das Bild echt wirkt. Die Entscheidung fällt das zweite Netz auf Grundlage bestehender Trainingsdaten, also echter Bilder, die auf den Servern liegen und mit deren Eigenschaften der Computer die künstlichen Bilder abgleicht. So lernt das System komplett neue, künstliche Bilder zu erstellen, die für den Beobachter echt aussehen. Nachdem das Verfahren 2014 vorgestellt wurde, wurde es von Wissenschaftlern weiterentwickelt, um immer höher aufgelöste Bilder erzeugen zu können. SZ

Bei Ermittlungen im Darknet soll die Polizei künftig unechte Kinderpornos einsetzen und selber hochladen dürfen. Doch ein Dilemma bleibt.

Von Max Hoppenstedt

In den Asservatenkammern deutscher Ermittlungsbehörden lagern viele Gigabyte Aufnahmen von sexualisierter Gewalt gegen Kinder. Beschlagnahmt wurden solche Bild- und Videodateien bei Ermittlungen wegen Kindesmissbrauchs. Mit einer neuen Gesetzesinitiative von Bundesjustizministerin Christine Lambrecht (SPD) sollen die Dateien nicht mehr nur diejenigen ins Gefängnis bringen, die sie ursprünglich aufgenommen oder gespeichert haben. Sie sollen auch zukünftige Missbrauchsfälle verhindern.

Mit dem Beweismaterial könnten schon bald künstliche Kinderpornos erzeugt werden. Diese dürfte die Polizei dann einsetzen, um Täter zu überführen. Das soll nach dem Willen der Ministerin ein Problem lösen, vor dem die Polizisten bei Ermittlungen im Darknet, dem anonymen Teil des Internets, häufig stehen: Foren, in denen besonders drastische Videos geteilt werden, nehmen neue Mitglieder - und damit auch verdeckte Ermittler - nur auf, wenn diese selbst Missbrauchsbilder zur Verfügung stellen. In der Szene wird dieser Test "Keuschheitsprobe" genannt. Regelmäßig muss diese "Prüfung" durch das Hochladen neuer Bilder wiederholt werden, auf einigen Seiten monatlich.

Das Justizministerium hat bereits einen Entwurf für das Gesetz an die Bundestagsfraktionen verschickt, das den Einsatz computergenerierter Bilder in Zukunft erlauben soll. Die Regelung soll Teil des neuen Gesetzes gegen sogenanntes Cybergrooming werden - das Anbahnen von sexuellem Missbrauch, bei dem Täter online Kontakt zu Kindern aufnehmen.

Computer können solche Bilder entweder komplett synthetisch errechnen oder man lässt sie auf der Grundlage älterer Missbrauchsbilder mit künstlicher Intelligenz neue Szenen erstellen. Experten gehen davon aus, dass sich mit beiden Varianten überzeugende Fake-Bilder erzeugen lassen. Allerdings ließen sich mithilfe echter Bilder schneller glaubhaft wirkende Aufnahmen herstellen.

Welche Regelung das Gesetz am Ende genau erlaubt, darum wird noch gerungen. Aus dem Ministerium heißt es, man bevorzuge die erste Variante. Doch mit dem Thema vertraute Kreise in SPD und CDU plädieren dafür, den Einsatz von sichergestellten Bildern als Trainingsdaten unter bestimmten Umständen zu erlauben.

In jedem Fall birgt der Einsatz selbst generierter Bilder von Missbrauch für die Polizei ein moralisches Dilemma: Zwar würde zu ihrer Herstellung keinem Kind tatsächlich Schaden zugefügt. Doch indem die Ermittler selbst neue Aufnahmen in Umlauf bringen, könnten sie zu einer Eskalationsspirale im Darknet beitragen, heißt es aus dem Justizministerium. Die künstlichen Aufnahmen könnten weitere, immer extremere Bilder provozieren. Trotzdem will man im Ministerium diesen Weg gehen, um überhaupt Einblick in jene Teile des Darknets zu bekommen, die den Ermittlern sonst versperrt sind.

"Wir haben die moralische und rechtliche Verpflichtung, Kinder zu schützen", sagt auch der SPD-Abgeordnete Johannes Fechner, Obmann im Rechtsausschuss des Bundestages. "Diese Verpflichtung ist deutlich höher zu bewerten als andere moralische Bedenken, die es beim Einsatz einer solchen Technologie geben könnte." Am wichtigsten sei die Vorgabe, dass von den künstlichen Bildern niemals auf echte Missbrauchsbilder geschlossen werden kann. "Die Experten in den Ermittlungsbehörden schließen dies aus."

Wer schmutzige Bilder anschauen will, muss auch welche liefern. Mit dieser Vorgabe ziehen die Betreiber von Kinderpornografie-Plattformen zielsicher Nutzer in die Foren, die "Zugriff" auf ein Kind haben. So wird in der Szene verharmlosend ein laufender Missbrauch beschrieben. Damit erreichen sie, dass ständig neue Bilder geteilt werden. Außerdem haben die Betreiber der Foren die "Tests" eingeführt, um zu verhindern, dass ihre Foren von verdeckten Ermittlern infiltriert werden können.

"Jeder Tag, den wir länger mit Ermittlern in diesen Foren unterwegs sein können, bedeutet, dass wir einen weiteren Tag zusätzliche Informationen bekommen und Täter identifizieren können", sagt Oberstaatsanwalt Thomas Goger. Er ist stellvertretender Leiter der bayerischen Zentralstelle Cybercrime (ZCB) in Bamberg. Die bayerischen Spezialermittler haben schon mehrere Verfahren gegen Kinderpornografie-Plattformen im Darknet geführt. So ermittelten sie etwa 2016 gegen eine Plattform, der ihre Betreiber den zynischen Namen "The Giftbox Exchange" ("Geschenke-Tauschbörse") gegeben hatten. 45 000 Nutzer aus aller Welt waren auf der Seite angemeldet, auch die Bamberger Spezialisten waren mit verdeckten Ermittlern vertreten. Doch in das spezielle Unterforum mit dem Namen "Producers Lounge" konnten sie keinen dauerhaften Einblick bekommen. Hier tauschten sich diejenigen aus, die neue Aufnahmen von Kindesmissbrauch erstellt hatten. Mit den computergenerierten Bildern hätten die Bamberger weiter ermitteln können, sagen sie. So aber hätten sie aufgeben müssen, als die obligatorische Verifizierung des von ihnen genutzten Accounts anstand.

Die computergenerierten Aufnahmen werden die deutschen Behörden wohl selbst erstellen. Expertise wäre zum Beispiel beim Bundeskriminalamt vorhanden. Geplant ist allerdings die Beschränkung, dass nur bestimmte, technisch affine Behörden, wie das BKA, Landeskriminalämter oder Cybercrime-Sonderstellen wie in Bamberg Bilder erstellen dürfen. Ob die Ermittler dafür Software einkaufen müssen oder eigene entwickeln, ist noch nicht klar.

© SZ vom 18.12.2019
Zur SZ-Startseite