Eine Ermittlerin sitzt vor einem Monitor mit Fotodateien

Wie KI-generierte Kinderpornografie Ermittlungen schwerer macht

Köln | Verbrechen

Stand: 13.03.2024, 09:52 Uhr

Die Zahl der Straftaten im Bereich Kinderpornografie hat in den letzten Jahren stark zugenommen. Künstliche Intelligenz hilft den Ermittlern dabei, große Datenmengen nach entsprechenden Bildern und Videos zu durchsuchen. Gleichzeitig wird KI aber auch zunehmend Teil des Problems.

Von Stefan Weisemann

Tatsächlicher Kindesmissbrauch oder Fälschung? Diese Frage müssen sich Ermittler im Bereich Kinderpornografie immer häufiger stellen. Denn Künstliche Intelligenz wird zunehmend dazu genutzt, entsprechende Bilder zu erstellen. Teilweise beruhen diese Bilder auf tatsächlichem Missbrauch, teilweise werden sie auch komplett künstlich erzeugt. Sie kursieren dann auf entsprechenden Portalen im Internet oder im Darknet. Das Problem für die Ermittler: Zuverlässige Technik, die Fakten und Fake automatisch unterscheidet, gibt es bisher nicht.

Wie schwer echte Fotos und Fake-Fotos zu unterscheiden sind

00:40 Min. Verfügbar bis 19.02.2026

Eine große Herausforderung für Oberstaatsanwalt Markus Hartmann und sein Team. Hartmann leitet die Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen (ZAC). Die Ermittler dort bearbeiten jedes Jahr mehrere tausend Fälle, in denen es um kinderpornografisches Material geht. Zunehmend auch Fälle, in denen die Ermittler sehr genau hinschauen müssen, ob sie es mit echten oder gefälschten Bildern zu tun haben.

Im Interview erklärt Hartmann, wie künstlich erzeugte Bilder den Arbeitsalltag der Ermittler verändern, warum ihm der unbedachte Umgang mit Kinderpornografie große Sorgen bereitet und wie Eltern ihre Kinder schützen können.

1

KI und Kinderpornografie: Wie groß ist das Problem?

Lokalzeit: Wie groß ist das Problem mit KI-generierten Bildern mittlerweile im Arbeitsalltag der Ermittler?

Markus Hartmann: Ich bin noch zurückhaltend mit einer Einschätzung der Größenordnung. Bisher haben wir keine zuverlässigen technischen Erkennungsmöglichkeiten. Das heißt: Wenn ein Bild technisch gut gemacht ist, dann bin ich mir nicht sicher, ob es überhaupt direkt als künstlich erstellt auffallen würde. Außerdem sehen wir als Strafverfolgungsbehörden nur die Fälle, die uns gemeldet werden. Aber wir sind auch im Austausch mit vielen Organisationen, die Betroffenen helfen, ebenso mit Internet-Providern. Diese Gespräche lassen mich vermuten, dass uns das Phänomen der KI-generierten Kinderpornografie in den nächsten Jahren noch viel mehr beschäftigen wird.

Oberstaatsanwalt Markus Hartmann, Leiter der Zentral- und Ansprechstelle Cybercrime NRW

"Wir verschwenden knappe Ressourcen": Markus Hartmann ist besorgt über immer mehr KI-generierte Kinderpornografie

Lokalzeit: Wie schwierig ist es, echte Kinderpornografie von künstlich hergestellter zu unterscheiden?

Hartmann: Das ist extrem schwierig. Beispiel: Die KI-Bilder der angeblichen Verhaftung von Donald Trump. Wenn man da nicht genau hinguckt, etwa auf eine unnatürliche Handhaltung oder versetzte Bildfragmente, dann erkennt man den Fake nicht auf den ersten Blick. Es ist also sehr viel Expertise erforderlich. Langjährige Ermittler im Bereich Kinderpornografie haben mittlerweile ein routiniertes Erkennungsvermögen. Sie erkennen, ob ein Bild bekanntes Material darstellt, ob es eine Abwandlung ist oder etwas ganz Neues. Für diese Aufgabe haben wir derzeit noch keine zuverlässigen technischen Filtermöglichkeiten.

Lokalzeit: Inwiefern macht das die Ermittlungen schwieriger?

Hartmann: Es macht sie vor allem fehleranfälliger. Unser erstes Ziel ist es immer möglichst schnell sagen zu können, ob Bilder einen noch laufenden tatsächlichen Missbrauch abbilden. Dann müssen wir alle Anstrengungen unternehmen, diesen Missbrauch zu beenden. Also: Opfer und Täter identifizieren, gegebenenfalls Durchsuchung, Verhaftung. Wenn wir jetzt Bildmaterial auf KI-Basis sehen, das erstmal kritisch überprüft werden muss, habe ich eine große Sorge: Wir verschwenden viele der ohnehin knappen Ressourcen auf Bilder, die gar kein tatsächliches Geschehen zeigen. So könnten wir tatsächliches Geschehen, wo wir eingreifen müssten, möglicherweise verpassen oder erst später erkennen.

Lokalzeit: Wie könnte die Lösung aussehen?

Hartmann: Wir verfolgen derzeit mehrere Ansätze. Wir gehen vor allem der These nach, ob KI-generierte Bilder auf technischer Ebene relevante Informationen beinhalten, die man automatisiert filtern könnte. Das ist wichtig, weil wir schlicht erschlagen werden von der Menge des Materials. Das sind tausende von Verfahren jedes Jahr, die allein hier in der Task Force der ZAC NRW anfallen, dazu noch mehr in den örtlichen Staatsanwaltschaften und Polizeibehörden.

2

Darf man mit einer KI Kinderpornografie erstellen?

Lokalzeit: Ist es strafbar, von einer Künstlichen Intelligenz kinderpornografisches Material erstellen zu lassen?

Hartmann: Zuletzt wurde mehrfach darauf hingewiesen, dass das reine Erstellen per KI vom Gesetz nicht abgedeckt sei. Das sehe ich anders. Ich kann mir kaum ein Erstellen von Kinderpornografie mittels KI vorstellen, das nicht strafbar ist. Denn der Besitz der Bilder ist - auch wenn sie KI-generiert sind - strafbar. Da man kaum erstellen kann, ohne zu besitzen, macht man sich auch beim Erstellen per KI regelmäßig strafbar.

Lokalzeit: Müssen die Gesetze an dieser Stelle verschärft werden?

Hartmann: Meiner Auffassung nach nicht, ich sehe derzeit keine relevante Gesetzeslücke. Man muss aber sicher aufmerksam beobachten, ob es im Zuge der technischen Entwicklung irgendwann Phänomene gibt, die wir bislang nicht absehen können.

3

Warum gibt es immer mehr Fälle von Kinderpornografie?

Lokalzeit: Die Fallzahlen bei Kinderpornografie sind in den letzten Jahren stark gestiegen. Gibt es tatsächlich mehr Fälle oder ist die Ermittlungsarbeit besser geworden?

Hartmann: Meiner Einschätzung nach ist das vor allem auf die bessere Ermittlungsarbeit zurückzuführen. Die großen Missbrauchsverfahren wie Lügde, Bergisch Gladbach, Münster und Wermelskirchen haben für die Strafverfolgungsbehörden ein Erdbeben ausgelöst. Wir haben erkannt, dass im Grunde jeder Missbrauch heute ein digitales Umfeld hat. Dieser Ermittlungsansatz ist also besonders wichtig und erfolgversprechend. Außerdem gibt es auch bei Internet-Unternehmen ein größeres Bewusstsein und damit auch ein gesteigertes Meldeaufkommen.

Kinderpornografie: Immer mehr Fälle

Die Zahl der Fälle im Bereich Kinderpornografie ist in Nordrhein-Westfalen zuletzt leicht zurückgegangen. Insgesamt zeigt der Trend aber eindeutig in die andere Richtung: 2022 hat das Landeskriminalamt knapp 11.200 Straftaten in diesem Bereich erfasst. Fünf Jahre zuvor waren es noch 1250 Fälle. Die aktuellen Zahlen aus der Polizeilichen Kriminalstatistik zeigen auch: 45 Prozent der Tatverdächtigen sind jünger als 18 Jahre alt. Experten gehen davon aus, dass die Dunkelziffer im Bereich der Kinderpornografie deutlich höher liegt, als es die Zahlen zeigen.

Lokalzeit: Das heißt, dass die Unterstützung durch die Unternehmen und Provider gut läuft?

Hartmann: Ja. Gerade im Bereich Kindesmissbrauch und Kinderpornografie ist die Bereitschaft, Beiträge zu löschen und mit den Ermittlungsbehörden zusammenzuarbeiten, ausgesprochen ausgeprägt. Nicht, dass man da nicht auch noch viel verbessern könnte, das ist immer so. Aber wenn ich alle Bereiche betrachte, in denen wir auf internationale Zusammenarbeit zum Beispiel mit Providern angewiesen sind, dann ist das einer der Bereiche, wo es am unproblematischsten ist, Informationen zu bekommen.

4

Was hält die Ermittler bei ihrer Arbeit auf?

Lokalzeit: Immer öfter verbreiten auch Jugendliche Kinderpornografie. Welche Rolle spielt das in ihrem Ermittlungsalltag?

Hartmann: Das macht uns tatsächlich Sorgen. Wir sprechen hier auch von "Schulhoffällen". Das heißt plakativ gesprochen: Ein 15-Jähriger macht einvernehmlich Fotos von seiner 13-jährigen Freundin, die rechtlich gesehen ein Kind ist, und verteilt diese Bilder später digital "auf dem Schulhof". Eine zweite Gruppe sind Jugendliche oder Erwachsene, die Bilder haben, die Kinder in entsprechenden Posen zeigen. Solche Bilder werden mit markigen Sprüchen versehen in WhatsApp-Klassen- oder Stammtisch-Gruppen verteilt. Die Mitglieder verfolgen primär gar keine pädokriminelle Motivation. Sie wollen nur einen geschmacklosen Witz reißen.

Lokalzeit: Strafbar ist das aber trotzdem?

Hartmann: Ja, man begeht damit eine Straftat, die aktuell mindestens bei einer Freiheitsstrafe von einem Jahr sanktioniert wird. Dessen sind sich die Betroffenen oft gar nicht bewusst.

Lokalzeit: Wie viel Ihrer Ermittlungsarbeit entfällt auf diese Fälle?

Hartmann: Diese beiden Fallgruppen zusammen machen nach unseren und den Schätzungen des LKA etwa 50 Prozent aller Fälle, die hier anfallen, aus. Das ist schon sehr bedenklich. Diese Fälle nehmen hier die Ressourcen in Anspruch, die dann fehlen, um die tatsächlichen Missbrauchsfälle zu verfolgen.

Lokalzeit: Die Bundesregierung plant, die Mindeststrafen für den Besitz von kinderpornografischem Material wieder zu senken. Wie würde das Ihre Arbeit verändern?

Hartmann: Die Bundesregierung nimmt damit eine Forderung aus der Praxis auf. Es geht vor allem darum, tat- und schuldangemessen sanktionieren zu können. Die Mindeststrafe von einem Jahr auch für Fälle von geringerer Schwere ist in manchen Fällen unangemessen hoch. Die Gesetzesänderung erlaubt uns, flexibler reagieren zu können. Die Höchststrafen ändern sich nicht, bei schweren Fällen drohen nach wie vor harte Strafen.

5

Wie können Eltern ihre Kinder schützen?

Lokalzeit: In den sozialen Medien gibt es sehr viele Bilder von Kindern. Wie groß ist die Gefahr, dass eine KI daraus zum Beispiel Nacktfotos macht?

Hartmann: Wenn ich eine KI bauen will, die darauf angelegt ist, Kinderpornografie zu generieren, dann brauche ich Trainingsmaterial. Dafür werden sicher auch normale Kinderbilder genutzt. Allerdings muss man als Eltern nicht in Panik verfallen. Ein gesundes Maß an Nutzung sozialer Medien ist okay. Über ein Porträtfoto eines Kindes mache ich mir weniger Sorgen. Eher wenn Eltern gutgläubig zum Beispiel Fotos von Kindern posten, die halbnackt oder ganz nackt am Strand herumlaufen.