KI-generierte Darstellungen sexualisierter Gewalt an Kindern verbreiten sich online rasant. Mithilfe von frei verfügbaren KI-Modellen entstehen in Sekunden täuschend echte Bilder. Täter trainieren Modelle gezielt mit echter Kinderpornographie und manipulieren harmlose Kinderfotos. Sie tauschen Anleitungen aus und bestärken sich gegenseitig im Einsatz von Künstlicher Intelligenz. Die Bilder sind kein harmloses Spiel: Sie normalisieren Täterverhalten, befeuern die Nachfrage und gefährden Kinder weltweit. Der Film fragt, warum die Herstellung solcher Abbildungen so einfach ist. Was bedeutet diese Entwicklung für die Opfer, die heute längst erwachsen sind? Und wie wappnen sich Ermittlungsbehörden, Strafverfolgerinnen und Strafverfolger und Meldestellen für das technische Wettrüsten mit den Kriminellen?...
* Transparenzhinweis: Für gekennzeichnete Links erhalten wir Provisionen im Rahmen eines Affiliate-Partnerprogramms. Das bedeutet keine Mehrkosten für Käufer, unterstützt uns aber bei der Finanzierung dieser Website.
Alle Preisangaben ohne Gewähr, Preise ggf. plus Porto & Versandkosten.
Bestimmte Inhalte, die auf dieser Website angezeigt werden, stammen von Amazon. Diese Inhalte werden "wie besehen" bereitgestellt und können jederzeit geändert oder entfernt werden.
Täter generieren mithilfe von KI Abbildungen von sexualisierter Gewalt an Kindern und tauschen online Anleitungen aus, wie man dieses Material am besten herstellen kann.
Dan Sexton ist Chief Technology Officer (CTO) der Internet Watch Foundation (IWF), einer britischen Organisation, die gegen Darstellungen sexualisierter Gewalt an Kindern im Internet vorgeht.
Markus Hartmann ist Leitender Oberstaatsanwalt bei der Generalstaatsanwaltschaft Köln und seit 2016 Leiter der Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen (ZAC NRW). Die ZAC NRW führt besonders bedeutsame Cybercrime-Verfahren und ist zentrale Anlaufstelle für Grundsatzfragen der Cyberkriminalität für Staatsanwaltschaften und Polizeibehörden in NRW und darüber hinaus. KI-generierte Abbildungen von sexualisierter Gewalt an Kindern spielen für die Strafverfolger bislang eine eher kleine Rolle. Dennoch besteht die Sorge, dass die Auswertung dieser Bilder wertvolle Ressourcen binden könnte – weil Ermittler und Strafverfolger nicht wissen, ob sie ein echten Kind sehen, das aus seiner Lage befreit werden muss, oder es künstlich generiert ist und keine Gefahrensituation für ein reales Kind besteht.
Täter generieren mithilfe von KI Abbildungen von sexualisierter Gewalt an Kindern und tauschen online Anleitungen aus, wie man dieses Material am besten herstellen kann.
Kerry Smith ist seit Chief Executive Officer der Internet Watch Foundation (IWF). Sie warnt wiederholt davor, dass KI-generierte Darstellungen sexualisierter Gewalt an Kindern keine hypothetische Bedrohung, sondern eine „aktuelle und sich beschleunigende Krise“ seien, da die Zahl solcher Fälle innerhalb kurzer Zeit massiv angestiegen ist. Smith betont, dass KI-Tools es ermöglichen, Überlebende „mit nur wenigen Klicks“ erneut zu Opfern zu machen und potenziell unbegrenzt viele fotorealistische Missbrauchsbilder zu erzeugen, weshalb sie strengere Gesetze und Sicherheitsauflagen für KI-Systeme fordert.
Prof. Dr. Dr. Klaus M. Beier ist Facharzt für Psychosomatische Medizin und Psychotherapie sowie Sexualmediziner und leitet das Institut für Sexualwissenschaft und Sexualmedizin der Charité in Berlin. Er ist wissenschaftlicher Leiter und Sprecher des Präventionsnetzwerks „Kein Täter werden“, das sich an Menschen mit sexueller Ansprechbarkeit auf Kinder richtet, um sexuellen Kindesmissbrauch und den Konsum von Missbrauchsabbildungen präventiv zu verhindern.
Melissa Schollmeyer, 32, ist Überlebende von sexualisierter Gewalt. Nachdem sie als 11-Jährige Übergriffe durch ihren damaligen Stiefvater erleiden musste, wird sie kurze Zeit später Opfer von Fotodiebstahl. Ein anderer Täter beschafft sich private Fotos aus ihrer Kindheit, um daraus u.a. mit Photoshop Darstellungen von sexualisierter Gewalt an Kindern zu generieren. Heute nutzen Täter für solche Darstellungen Künstliche Intelligenz und besorgen sich Fotos in den Sozialen Medien oder auf Stockdatenbanken.
Prof. Dr. Kristian Kersting, Professor für Künstliche Intelligenz und Maschinelles Lernen an der TU Darmstadt und Co-Direktor des KI-Zentrums hessian.AI.
Täter generieren mithilfe von KI Abbildungen von sexualisierter Gewalt an Kindern und tauschen online Anleitungen aus, wie man dieses Material am besten herstellen kann.
Thomas Goger ist Leitender Oberstaatsanwalt bei der Generalstaatsanwaltschaft Bamberg und stellvertretender Leiter der Zentralstelle Cybercrime Bayern (ZCB), die landesweit bedeutende Cybercrime-Verfahren führt. Er sieht, dass KI von Tätern gezielt eingesetzt wird, um Missbrauchsmaterial mit Kindern zu generieren und bestehendes Material zu erweitern.
Melissa Schollmeyer, 32, ist Überlebende von sexualisierter Gewalt. Nachdem sie als 11-Jährige Übergriffe durch ihren damaligen Stiefvater erleiden musste, wurde sie kurze Zeit später Opfer von Fotodiebstahl. Täter nutzen heute Künstliche Intelligenz, um entsprechende Darstellungen zu generieren.
Knapp 43.000 Fälle von Herstellung, Verbreitung, Erwerb und Besitz kinderpornografischer Inhalte gab es in Deutschland im Jahr 2024. Noch entfällt nur ein kleiner Teil davon auf künstlich generiertes Material. Die entsprechenden Modelle zur Generierung von Missbrauchsabbildungen werden aber kontinuierlich besser.