Vorgehen gegen Kinderpornografie: Mit fiktiven Bilder ermitteln?
Dürfen verdeckte Ermittler in Zukunft künstlich erstellte Kinderpornografie verwenden? Ein entsprechendes Gesetz will die GroKo noch 2019 beschließen.
Das Problem der Ermittler: Polizisten dürfen keine Straftaten begehen, das gilt auch für verdeckte Ermittler. Deshalb müssen sich verdeckte Ermittler bisher herausreden, wenn sogenannte Keuschheitsproben verlangt werden. In Polizei und Politik wird schon lange diskutiert, ob Polizisten nicht ausnahmsweise Kinderpornografie weitergeben dürfen, um in klandestine Gruppen einzudringen.
Relativ neu ist die Überlegung, dass die Polizei ja vom Computer erzeugte fiktive Bilder benutzen könne, sodass keine realen Kinder betroffen sind. Allerdings ist auch die Weitergabe fiktiver Missbrauchsdarstellungen strafbar, weil befürchtet wird, dass bei Empfängern der Wunsch steigt, nicht nur Bilder anzuschauen, sondern selbst Kinder zu missbrauchen. Deshalb ist auch für solche Bilder eine gesetzliche Erlaubnis nötig.
Diese Ausnahmeregelung wollen CDU/CSU und SPD nun schaffen. Und es soll ganz schnell gehen. Die Änderung soll noch im Dezember in ein bereits laufendes anderes Gesetzgebungsverfahren eingebracht werden. Justizministerin Christine Lambrecht (SPD) spricht die entsprechende Formulierungshilfe derzeit mit den anderen Regierungsressorts ab. Der genaue Wortlaut ist noch nicht bekannt. Nach taz-Informationen soll aber sichergestellt werden, dass es sich bei den Bildern um „fiktive“ Darstellungen handelt. Das ist auch die Bedingung für Johannes Fechner, den rechtspolitischen Sprecher der SPD, der das Vorhaben mit angeschoben hat.
Anspruchsvolles Verfahren
Das Erzeugen von Kinderpornografie am Computer ist technisch anspruchsvoll. Dabei wird ein Originalbild mit einem neuen fiktiven Gesicht und Körper versehen. Solche fiktiven Gesichter werden vom Computer aus einer Vielzahl anderer Gesichter berechnet und sind kaum von realen Gesichtern zu unterscheiden, wie etwa die Webseite www.thispersondoesnotexist.com zeigt.
In der Praxis werden sich aber noch viele Probleme stellen. Da es um die Darstellung von Missbrauch geht, müssen die Gesichter auch Angst, Ekel oder Apathie ausdrücken können. Außerdem geht es um Darstellungen des ganzen Körpers, bei denen Kinder gefesselt, geschlagen und penetriert werden. Um solche fiktiven Szenen darzustellen, braucht der Computer Vorlagen. Zwar hat die Polizei jede Menge Kinderpornografie beschlagnahmt. Reale Bilder mit realen Opfern sollen aber auch nicht in die Herstellung fiktiver Bilder einfließen, so das Justizministerium auf Nachfrage der taz.
Noch schwieriger ist das Erzeugen von Videos. Da ja kein Kindesmissbrauch gefilmt werden kann, muss jedes fiktive Filmbild erst erzeugt werden, mehr als 20 Bilder pro Sekunde. Für einen fiktiven Arm, der sich bewegt, braucht der Computer also viele Vorlagefotos, die Arme in vielen Positionen aus unterschiedlichen Winkeln zeigen.
Noch viel Arbeit
„Mit künstlicher Intelligenz können grundsätzlich auch solche Videos erzeugt werden“, sagte Dirk Labudde, Professor für Bioinformatik an der Hochschule Mittweida (Sachsen). Er rechnet allerdings mit einer „längeren Entwicklungsphase“. Und ob die Videos dann wirklich echt aussehen oder sofort als Computer-Fake erkannt werden, da ist der Experte, der häufig mit der Polizei zusammenarbeitet, selbst gespannt. Computergenerierte Fußballspiele wie Fifa 20 erkennt bisher noch jeder als Simulation.
Ein Missbrauchszirkel, der sich abschotten will, müsste künftig also wohl nur Videos statt Fotos als Probe verlangen, dann würden verdeckte Ermittler schnell auffliegen. Oder der Zirkel verlangt einfach sehr viele Fotos. Für das Kinderpornografie-Netzwerk „Wonderland“ wurden in den 1990er Jahren als „Eintrittskarte“ 10.000 kinderpornografische Bilder verlangt. Bis die Polizei so viele Fake-Bilder produziert hat, dürften Jahre vergehen.
SPD-Rechtspolitiker Fechner sorgt sich auch, dass die verlangten Darstellungen immer krasser werden: „Auch wenn es nur um fiktive Bilder geht, darf der Staat nicht jede Grausamkeit an Kindern darstellen.“ Es müsse Grenzen geben – die bisher aber niemand definiert hat.
Technik mit Gefahren
Könnte es am Ende sogar eine Eskalationsspirale geben? Dass immer krassere Bilder verlangt werden, um die Polizei abzuschütteln? Leiden müssten darunter die real missbrauchten Kinder. Oder sind die verlangten Eintrittsbilder heute schon so schlimm, dass kaum eine Steigerung möglich ist? Das BKA will zur aktuellen Praxis der Missbrauchszirkel keine Auskunft geben. Für Kripo-Chef Egetemaier ist die Chance, missbrauchte Kinder aus ihrer Notlage zu befreien, den Aufwand wert. Er kann sich sogar vorstellen, mit realen Missbrauchsdarstellungen zu arbeiten – wenn die Opfer der polizeilichen Nutzung zustimmen.
Egetemaier wurde zum bundesweit gefragten Experten, weil er und seine Leute 2017 den spektakulären Missbrauchsfall in Staufen (Südbaden) aufklärten. Eine Mutter und ihr einschlägig vorbestrafter Lebensgefährte hatten den siebenjährigen Sohn der Frau im Darknet zum Missbrauch angeboten. Die Polizei konnte den Fall damals allerdings klären, ohne selbst Kinderpornografie zu verbreiten. Im Staufener Fall hatte ein Insider Gewissensbisse bekommen und der Polizei einen Tipp gegeben.
Der Haupttäter kooperierte dann mit der Polizei und ließ die Beamten seinen Account nutzen. So konnten weitere Täter angelockt und verhaftet werden. Und das war kein Einzelfall. Bei Ermittlungen im Darknet ist es heute gängig, zu warten, bis sich einzelne Täter überführen lassen, um dann ihre Accounts zu übernehmen. Keuschheitsproben müssen so nicht mehr erbracht werden, weil die Täter, deren Accounts nun benutzt werden, ja schon Teil des Netzwerks waren.
Der Freiburger Kripo-Chef will aber nicht allein auf übernommene Accounts vertrauen. Auch er befürwortet die staatliche Produktion von Fake-Kinderpornografie.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“