Lügde und Bergisch Gladbach sind Ortsnamen, die für Kinderporno- und Missbrauchsskandale stehen. Nun ist auch die Stadt Münster hinzugekommen. Kinder und Jugendliche wurden in allen Fällen missbraucht. Die Taten wurden gefilmt, die Aufnahmen im Internet verbreitet und mit anderen Menschen geteilt. Im Jahr 2019 lag die Gesamtmenge an Daten, die bei Untersuchungen in Bezug auf Herstellung, Verbreitung und Besitz von Kinderpornografie von der Polizei NRW sichergestellt wurde, bei 2600 Terabyte. Dieses Jahr könnten es noch mehr werden. Allein beim aktuellen Fall in Münster gehen die Ermittler nach ersten Erkenntnissen von mehr als 500 Terabyte Datenmaterial aus.
Für das Landeskriminalamt in Düsseldorf und das Dezernat zur Bekämpfung von Kinderpornografie sind diese Datenmengen eine riesige Herausforderung: "In den letzten Jahren hat sich die Technik rasant entwickelt. Deswegen haben es die Täter viel leichter, die Herstellung und Verbreitung ist leichter und eben auch die Vervielfältigung. Von daher werden diese Datenmengen immer größer", erklärt Dezernatsleiter Sven Schneider im Gespräch mit ntv.de.
Sobald es belastbare Verdachtsmomente gegen Beschuldigte gibt, werden die Datenträger durch die Polizei beschlagnahmt. Laptops, USB-Sticks und externe Festplatten bieten viel Platz für illegales Material. Da wäre es sowohl für die Schnelligkeit und die psychische Gesundheit der Mitarbeiter hilfreich, wenn eine Künstliche Intelligenz (KI) die Auswertung übernehmen könnte. Doch trotz der technologischen Fortschritte ist es schwierig, eine KI zu entwickeln, die effektiv bei der Sichtung und Datenauswertung von Missbrauchsabbildungen helfen kann. Das Problem liegt nach Meinung des Leiters der Zentralen Auswertungs- und Sammelstelle Kinderpornografie vor allem bei der Zuverlässigkeit beziehungsweise den Erkennungsraten.
Zunächst müsse man jedoch differenzieren, denn die Polizei müsse verschiedene Aufgaben erfüllen: Einerseits die Strafverfolgung - dabei geht es um den Nachweis, dass Täter Missbrauchsabbildungen besitzen oder verbreiten -, andererseits die Gefahrenabwehr. Dabei gehe es laut Schneider darum, noch andauernde Missbrauchsfälle zu detektieren und die Opfer aus diesen Situationen zu befreien.
Gefahrenabwehr und Datenreduzierung
"Insbesondere im Bereich der Gefahrenabwehr können wir es uns nicht leisten, auch nur ein einziges Bild zu übersehen und dadurch ein Opfer nicht befreien zu können. Ich habe mit Firmen geredet, die von einer Erkennungsquote von 30 bis 40 Prozent sprechen, andere Firmen sind bei 60, 75 Prozent. Microsoft hat für sich als Ziel 99 Prozent definiert", so Schneider. "Wenn man möchte, dass eine KI Pornografie erkennt oder Videos sogar nach Kinderpornografie filtert, dann ist das ein hehres Ziel. Man muss dieses Ziel auch angehen. Zur Reduzierung von Daten im Bereich der Strafverfolgung ist uns auch jede Hilfe willkommen. Wir setzen hier aber noch keine KI ein, da läuft gerade die Entwicklungsarbeit. Es ist dabei übrigens äußerst fraglich, ob Firmen jemals 100-Prozent-Lösungen werden liefern können."
Im Landeskriminalamt (LKA) in Düsseldorf erledigen in einem extra gesicherten und geschützten Bereich Teams aus Polizeibeamten und Angestellten diese Arbeit: die sogenannten Bewerter. Sie sichten jeden Tag kinderpornografisches Material und allgemeine Daten, die bei vorherigen Durchsuchungen sichergestellt wurden.
Die Männer und Frauen blicken dabei auf Bildschirme, auf denen sie sich sehr viele Bilder auf einmal oder zum Beispiel ein Video, welches in neun Teile gestückelt wurde, gleichzeitig anschauen können, um möglichst viel Material schnell sichten zu können. Sie arbeiten gegen die Zeit - und die Datenmengen wachsen ständig. Die Mitarbeiter müssen sich auf ihren Bildschirmen Bilder und Videos von teilweise schlimmster sexuelle Gewalt anschauen, Bilder, die verstören. "Es können harmlose Urlaubsbilder sein, aber eben auch schrecklichste Missbrauchsabbildungen von Jugendlichen, Kindern oder gar Säuglingen, genauso auch tierpornografische oder gewaltverherrlichende Inhalte."
Es ist eine zutiefst belastende Arbeit. "Es gibt keinen Ausbildungsberuf, auch kein Studium, das darauf vorbereitet. Das Wichtigste ist, dass die Menschen psychisch belastbar sind. Sie müssen ein absolutes Fundament haben, damit sie sich mit solchem Material tagtäglich beschäftigen müssen", erklärt Schneider ntv.de.
Als die Abteilung 2019 personell aufgestockt werden sollte, befürchtete der Dezernatsleiter, dass er kaum Bewerbungen erhalten würde. Am Ende bewarben sich aber sogar 150 Frauen und Männer. Schneider glaubt, dass dazu auch die Lügde-Berichterstattung beigetragen hat. Das sei auch in den Vorstellungsgesprächen zur Sprache gekommen. Die Bewerberinnen und Bewerber hätten gesagt: "Das ist ein gesellschaftlich wichtiges Thema und da will ich irgendwie meinen Beitrag dazu leisten."
KI wird in diesem Bereich getestet
Trotz besserer Personalausstattung wird andernorts auch am Software-Einsatz gearbeitet. Die Staatsanwaltschaft Köln hat vor Kurzem mit Microsoft ein Projekt zur Erkennung von kinderpornografischen Bildinhalten gestartet. Microsoft hat nach eigenen Angaben im Rahmen dieses Projektes Algorithmen entwickelt, die in den dekonstruierten Bilddateien Inhalte erkennen können. Am Ende entscheiden dann aber speziell geschulte Experten aus dieser Vorauswahl, ob tatsächlich strafrechtlich Bildmaterial vorliegt.
Bei der Auswertung von kinderpornografischen Material kann Technik zwar hilfreich sein, allerdings müssen Polizeibehörden sowie Software-Unternehmen enge rechtliche Rahmenbedingungen einhalten. Das macht die Entwicklungsarbeit und den Einsatz von KI umso schwieriger. Für Schneider ist das nächste Ziel ganz klar: die Zahl der von Menschen gesichteten Bilder zu verringern. Aber auch langfristig hält er das menschliche Urteilsvermögen für unverzichtbar, vor allem bei der unmittelbaren Gefahrenabwehr. "Wenn man das jetzt einer KI überließe, dann muss die mir 100 Prozent der Daten anzeigen", sagte er voller Mitgefühl mit den minderjährigen Opfern. "Denn wenn mir ein Bild nicht angezeigt wird und da ist ein laufender Missbrauch, übersehen wir das und das Kind bleibt weiter dieser Tortur ausgesetzt."
Quelle: ntv.de
Tags: