Ergebnis: Künstliche Intelligenz erkennt Kinderpornografie

25.05.2021 Der Kampf gegen Kindesmissbrauch und entsprechende Abbildungen ist ein Wettlauf gegen die Zeit, den Ermittler häufig verlieren. Künstliche Intelligenz könnte die Aufklärung stark beschleunigen und das Martyrium der Kinder früher beenden, zeigt ein Forschungsprojekt.

Peter Biesenbach (CDU) spricht über die Ergebnisse des Forschungsprojekts. Foto: Oliver Berg/dpa © dpa - Deutsche Presse-Agentur GmbH

Künstliche Intelligenz (KI) kann mit einer Genauigkeit von 92 Prozent Kinder- und Jugendpornografie und nicht strafbare Erwachsenenpornografie erkennen und unterscheiden. Damit könnten die immer weiter ausufernden Datenfluten viel schneller bearbeitet und pädokriminelle Täter zügiger identifiziert werden, erklärte Nordrhein-Westfalens Justizminister Peter Biesenbach (CDU) am Dienstag in Düsseldorf zum Abschluss eines Forschungsprojekts.

«Die mit den Ortsbezeichnungen Lügde, Münster und Bergisch Gladbach verbundenen Geschehnisse haben uns das unendliche Leid missbrauchter Kinder drastisch vor Augen geführt, aber auch ahnen lassen, wie verbreitet Kindesmissbrauch in unserer Gesellschaft ist», sagte der Justizminister. Exakte Täterzahlen seien nicht verfügbar, es handle sich aber um eine Dimension mindestens im hohen fünfstelligen Bereich allein im Fadenkreuz der NRW-Ermittlungsbehörden.

Um solche Verbrecher dingfest zu machen und das oft jahrelange Grauen ihrer minderjährigen Opfer zu beenden, soll Künstliche Intelligenz beim Vorsortieren der Bilderflut helfen, altes Material aussortieren, die schlimmsten Verdachtsfälle priorisieren und die Altersklassen der Opfer erkennen. Dazu haben Wissenschaftler gemeinsam mit dem Hard- und Softwareentwickler Microsoft einen passgenauen Prototyp entwickelt, der nach Einschätzung des NRW-Justizministeriums alle rechtlichen Anforderungen an Datenschutz und Datensicherheit erfüllt.

Das nun seit über einem Jahr von Experten der Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen (ZAC NRW) erprobte hybride Cloudmodell sei in der Strafverfolgung bislang «weltweit einmalig», sagte Biesenbach. Das dadurch ermöglichte frühe Herausfiltern von Beweismitteln für einen dringenden Tatverdacht, der eine Untersuchungshaft begründen könne, werde «die Arbeit der Staatsanwaltschaft revolutionieren».

Ganz besonders in Haftsachen gelte der Beschleunigungsgrundsatz, nach dem im Regelfall spätestens nach einem halben Jahr über die Erhebung der Anklage zu entscheiden und mit dem Hauptverfahren zu beginnen sei, erklärte Biesenbach. An diesem Zeitfaktor scheitert bislang oft die manuelle Auswertung von Daten, die Kindesmissbrauch und entsprechende Abbildungen zeigen.

Die zweite Hürde für die Ermittler: Das Strafgesetzbuch statuiert ein umfassendes Umgangsverbot mit kinder- und jugendpornografischen Schriften. Selbst bei der Strafverfolgung muss der Umgang mit solchem Material minimiert werden. In die Hände Externer darf es überhaupt nicht gelangen.

Diese Hürde sei nun mit einer Abstraktionssoftware genommen worden, erklärte KI-Architekt Jan Kruse von Microsoft Deutschland. In einer abstrahierten und anonymisierten Form könne das Bild- und sonstige Datenmaterial nun unbedenklich in eine Cloud geladen werden.

«Das ist der Kniff», erklärte der Kölner Oberstaatsanwalt und ZAC-Leiter, Markus Hartmann. In Klarform dürften solche Daten nicht in eine Cloud geladen werden. In der abstrahierten Version könnten sie aber lokal auf die Rechner der Strafverfolgungsbehörden geladen und dort im Original bearbeitet werden. Zur Auswertung seien letztlich nur ein Netzwerkanschluss und ein Stromstecker nötig.

Weitere Vorteile des «AIRA» (Artificial Intelligence enabled Rapid Assessment, auf Deutsch etwa: durch künstliche Intelligenz ermöglichte schnelle Bewertung) getauften Software-Assistenten: Mit zunehmenden Fällen «lernt» er die Bewertungen und wird noch zielgenauer. Der Abstraktionsalgorithmus erkenne auch «neue Moden» in Missbrauchsabbildungen, sagte Hartmann.

«Was für mich unvorstellbar war: Die Produzenten dieses kinderpornografischen Materials legen Wert darauf, dass man ihre Arbeit erkennt», berichtete Biesenbach. Deshalb würden sie ihre Bilder mit einer Art Wasserzeichen versehen, das allerdings für die KI auslesbar sei. «Die Täter agieren oftmals ohne jede technische Tarnung im normalen Internet, über gewöhnliche Messenger und Chatforen.»

Die Kaltblütigkeit solcher pädokrimineller Wiederholungstäter offenbaren auch Zeugenaussagen im laufenden «Untersuchungsausschuss Kindesmissbrauch» des Düsseldorfer Landtags. Demnach hatte einer der inzwischen verurteilten Haupttäter im Ermittlungskomplex Lügde, der jahrelang seine kleine Pflegetochter auf einem Campingplatz missbraucht hatte, mit recht unverhohlenen, obszönen Andeutungen auf seine Vorlieben hingewiesen. Bis die Behörden eingriffen, dauerte das Martyrium des Mädchens und anderer missbrauchter Kinder allerdings jahrelang an.

Eine Mitte 2020 bei der ZAC eingesetzte Taskforce zur Bekämpfung von Kindesmissbrauch und der Verbreitung entsprechender Abbildungen habe bislang schon zu über 1600 Ermittlungsverfahren gegen mehr als 1800 Beschuldigte geführt, bilanzierte Biesenbach. Die jüngst beschlossene Verschärfung des Strafrahmens werde dazu führen, dass mehr Tatverdächtige wegen einschlägiger Vorwürfe in Untersuchungshaft landeten. Im vergangenen Jahr sei die Zahl solcher Verdachtsfälle in Deutschland bereits um 50 Prozent gestiegen.

Die Landesregierung habe bereits die Mittel in den Haushalt eingestellt, um «AIRA» möglichst schnell aus dem Forschungsprojekt heraus in die Breite der praktischen Ermittlungsarbeit zu tragen, versicherte Biesenbach. Dazu werde nun eine öffentliche Ausschreibung erfolgen, um die dazu nötige Infrastruktur in den Behörden zu schaffen.

Auch eine Anwendung des smarten Systems auf andere Deliktbereiche sei vorstellbar, sagte Oberstaatsanwalt Hartmann. «KI kann Kinderpornografie erkennen. Warum sollte sie nicht auch Hakenkreuze, Hass-Parolen oder andere Dinge erkennen können, wenn wir sie darauf trainieren?»

© dpa-infocom GmbH

Weitere News