Der blaue Balken auf dem Bildschirm füllt sich in Sekundenschnelle, er zeigt an, dass 583 Bilder gescannt werden, die auf einem Samsung-Handy lagern. Unter dem Balken tauchen Bilder von Frauen und Naturaufnahmen auf, versehen mit der Einschätzung der Maschine: Das Foto des Models, das sich auf einem Bürgersteig räkelt, sei zu 99 Prozent "Erwachsenenpornografie" - also legal. Das Foto einer Frau am Strand dagegen stuft die Maschine zu 98 Prozent als "Kinderpornografie" ein - ein Alarmzeichen.
Künstliche Intelligenz gegen Kindesmissbrauch:"Sie wird nicht müde, sie schläft nicht, und sie arbeitet rund um die Uhr"
Lesezeit: 4 min
Es ist einer der schwersten Jobs überhaupt: unter Zeitdruck Festplatten und Handys von Verdächtigen durchkämmen, die Bilder von sexuellem Missbrauch von Kindern besitzen könnten. Die Justiz in NRW bekommt nun Hilfe: von der KI "Aira".
Von Christian Wernicke, Düsseldorf, und Jannis Brühl, München/Düsseldorf
Familie:"Ich kann meine Kinder jetzt beschützen"
Man hätte die Kinder wegen akuter Gefährdung von ihren Eltern trennen können. Oder man traut sich das, was ein Jugendamt tat - und schickt die ganze Familie zum Leben nach Italien. Vom Glück, neu anzufangen.
Lesen Sie mehr zum Thema