Drücken Sie „Enter“, um den Inhalte zu überspringen

Chatkontrolle: Wie die EU-Kommission beim Kinderschutz versagt

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist...
Die geplante Chatkontrolle ist eine Mogelpackung. Verkauft wird sie als Bekämpfung von Kindesmissbrauch – drin steckt eine systematische Nacktbildersammlung. Das birgt böse Überraschungen. Ein Essay.
Eine Nacktbildersammlung soll Kindern helfen (Symbolbild) – Motiv: IMAGO / Christian Ohde; Montage: netzpolitik.orgMehr Überwachung und weniger Privatsphäre für alle. Das plant die EU-Kommission mit einem Gesetz, das als Chatkontrolle bekannt ist. Online-Anbieter sollen auf Anordnung sogar private Nachrichten durchleuchten. Warum das alles? Die EU-Kommissarin Ylva Johansson hat darauf eine scheinbar simple Antwort.
„Wir reden hier über abscheuliche Verbrechen, Vergewaltigungen von kleinen Kindern“, sagte sie dem SPIEGEL. „Diese Kinder haben ein Anrecht darauf, geschützt zu werden.“
Die Überwachung soll also Kinder vor schwerer Gewalt schützen. Aber das ist ein Zerrbild. Eine treffende Zusammenfassung des geplanten Gesetzes ist das nicht. Auch der Titel des Gesetzes ist irreführend, „Bekämpfung des sexuellen Missbrauchs von Kindern“. Der Haken: Die drei zentralen Begriffe – „Kind“, „Missbrauch“ und „bekämpfen“ – haben im Gesetz eine andere Bedeutung als in der Umgangssprache. Sie wecken überhöhte Erwartungen, die das Gesetz kaum erfüllen kann.
Mit „Kinder“ sind nicht nur Kinder gemeint
Wer mit 17 Jahren gerade seinen Führerschein macht, Alkohol trinken darf und bei Kommunalwahlen seine Stimme abgibt, lässt sich kaum noch als Kind bezeichnen. In der Umgangssprache sind Jugendliche keine Kinder mehr, und auch im deutschen Strafrecht spricht man ab dem Alter von 14 Jahren von Jugendlichen.
Das Gesetz zur Chatkontrolle definiert das anders und meint mit Kind „jede natürliche Person unter 18 Jahren“. Der Verweis von Kommissarin Johansson auf „kleine Kinder“ ist also verkürzt. Online-Anbieter sollen auf Anordnung ausdrücklich auch nach verdächtigen Aufnahmen von Jugendlichen fahnden. Mehr noch: Da man Menschen ihr genaues Alter nicht ansehen kann, sind sogar Aufnahmen von jung aussehenden Erwachsenen betroffen.
Zur Definition der Begriffe verweist die EU-Kommission in ihrem geplanten Gesetz auf eine EU-Richtlinie aus dem Jahr 2011 (Richtlinie zur Bekämpfung des sexuellen Missbrauchs von Kindern). Daraus geht hervor, unter die Kategorie „Kind“ fällt „jegliches Material mit Darstellungen einer Person mit kindlichem Erscheinungsbild“. Auch wenn im geplanten Gesetz 580 mal „Kind“ steht, handelt es von Minderjährigen. Das allein wäre noch etwas spitzfindig, aber es geht noch weiter.
Mit „Missbrauch“ ist nicht nur Missbrauch gemeint
Das Wort „Missbrauch“ kommt im Entwurf der EU-Kommission 491 mal vor. Es ist ein geläufiges Wort für ein Verbrechen, bei dem Menschen andere zu sexuellen Handlungen zwingen. Die Schäden sind sowohl körperlich als auch seelisch. Manche Betroffene lehnen das Wort „Missbrauch“ jedoch ab. Die Begründung: „Missbrauch“ legt nahe, dass es auch einen „Gebrauch“ von Menschen geben könne, aber Menschen sind keine Gegenstände.
Im Entwurf der EU-Kommission hat „Missbrauch“ nochmal eine andere Bedeutung, und die ist sehr weit gefasst. Sie geht deutlich über die von Johansson erwähnte Vergewaltigung hinaus, und sie beschränkt sich nicht auf sexuelle Handlungen. Im Zweifel gilt sogar ein ohne böse Absicht entstandenes Alltagsfoto als Missbrauch. Wieder bezieht sich die EU-Kommission auf die Definitionen der Richtlinie von 2011. Daraus geht hervor: Unter Missbrauch fällt auch „jegliche Darstellung der Geschlechtsorgane einer Person mit kindlichem Erscheinungsbild für primär sexuelle Zwecke“.
Um zu verstehen, was das heißen soll, hilft ein Blick darauf, was damit nicht gemeint ist. Unproblematisch sind laut EU-Richtlinie Aufnahmen für „medizinische“ und „wissenschaftliche“ Zwecke. Ein konkretes Beispiel nennt die Richtlinie nicht. Darunter fallen dürften zum Beispiel Fotos aus dem Medizin-Lehrbuch, die etwa einen Ausschlag im Intimbereich zeigen. Ärtz*innen brauchen das für ihre Arbeit, das ist nicht illegal. Weniger eindeutig ist die Lage bei Fotos von Kindern, wie sie oft in Familien-WhatsApp-Gruppen geteilt werden.
Das sagen Kinderschutz-Organisationen zur Chatkontrolle

Der Bundesgerichtshof (BGH) hat im Jahr 2020 einen Beschluss gefällt, der das Problem näher beleuchtet. Demnach gilt eine Aufnahme von einem unbekleideten Gesäß dann als sexuell aufreizend, wenn das Gesäß „aus Sicht eines durchschnittlichen Betrachters in sexuell motivierter Weise im Blickfeld“ steht. Auch in dieser Definition geht es nicht um sexuelle Handlungen. Der BGH lässt viel Spielraum für Deutungen im Einzelfall.
Bloß worauf achtet der „durchschnittliche Betrachter“? Ist er ein unbesorgter Mensch, der sich nichts dabei denkt, wenn Kinder in Urlaubsfotos auch mal ohne Hose am Strand spielen? Oder ist der „durchschnittliche Beobachter“ inzwischen darauf sensibilisiert, dass Menschen in pädokriminellen Foren selbst harmlose Alltagsfotos von bekleideten Kindern sexualisieren? Gewissheit gibt es kaum, sobald auf einem Foto Minderjährige und Nacktheit zu sehen sind.
Das wissen auch Online-Anbieter, die laut geplantem Gesetz auf Anordnung „Material über Kindesmissbrauch“ aufspüren müssen. Zu den verdächtigen Aufnahmen gehören dann notwendigerweise auch Fotos aus der Familien-Gruppe auf WhatsApp. Mehr noch: Viele Jugendliche teilen im gegenseitigen Einverständnis intime Fotos von sich selbst. Das ist weder illegal noch gewaltsam, und aus dem geplanten EU-Gesetz geht auch klar hervor: Einvernehmliches Sexting gilt nicht als Missbrauch. Von Außen lässt sich jedoch kaum beurteilen, ob Nacktbilder tatsächlich mit oder Einverständnis verschickt werden. Im Zweifel müssen Online-Anbieter auf Anordnung auch solche Fotos erfassen und Behörden melden.
Ohne nähere Erklärung lässt sich der Begriff „Material über Kindesmissbrauch“ im geplanten EU-Gesetz also kaum verstehen. Weniger missverständlich wäre es zu sagen, das geplante Gesetz dreht sich um Aufnahmen, die Minderjährige und Nacktheit zeigen. Stellt sich die Frage, was mit den so gesammelten Aufnahmen passiert.
Mit „bekämpfen“ ist nicht nur „bekämpfen“ gemeint
Das Wort „Bekämpfung“ taucht im Entwurf 107 mal auf, denn die EU-Kommission will mit dem geplanten Gesetz den „sexuellen Missbrauch von Kindern“ bekämpfen. Das Wort legt nahe: Die EU will Kinder vor Gewalt retten, aus den Händen brutaler Täter*innen befreien. Doch auch das ist irreführend. Wie diese „Bekämpfung“ tatsächlich aussehen kann, macht die Arbeit einer US-amerikanischen Organisation namens NCMEC anschaulich. Die Abkürzung steht für „National Center for Missing and Exploited Children“.
Einige Online-Anbieter scannen bereits heute freiwillig, was Nutzer*innen hochladen. Das betrifft nur Inhalte, die nicht Ende-zu-Ende-verschlüsselt sind. Plattformen wie Facebook, Instagram und YouTube suchen automatisch nach Aufnahmen, die Minderjährige und Nacktheit zeigen, und melden sie dem NCMEC. Die Arbeit des NCMEC wird im geplanten EU-Gesetz ausdrücklich erwähnt. Das Zentrum ist ein Vorbild für die geplante Gesetzgebung.
Im Jahr 2021 wurden dem NCMEC auf diese Weise 85 Millionen Mal verdächtige Fotos und Videos gemeldet. Doch nur in 4.260 Fällen hat das NCMEC daraufhin Ermittlungsbehörden informiert. Um die Zahlen in Relation zu setzen: 4.260, das entspricht 0,005 Prozent von 85 Millionen – beziehungsweise 0,05 Promille.
Im besten Fall helfen NCMEC-Meldungen dabei, dass die Polizei aktive Täter*innen findet und Kinder vor weiterer Gewalt rettet. Bevor Behörden etwas tun können, müssen NCMEC-Mitarbeiter*innen erst einmal Abermillionen verdächtiger Aufnahmen aussortieren.
Die Anzahl der Verdachtsmeldungen ist so hoch, weil ein Großteil der verdächtigen Inhalte immer und immer wieder geteilt wird – und immer wieder einen Alarm auslöst. Müssen Online-Anbieter also Aufnahmen suchen, die Minderjährige und Nacktheit zeigen, dann werden sie millionenfach nutzlose Ergebnisse erhalten. Die Suche nach Hinweisen auf aktive Täter*innen gleicht der Suche nach der Nadel im Heuhaufen.
Das Raunen vom millionenfachen Missbrauch

Das Beispiel NCMEC zeigt: Die von der EU geplante Chatkontrolle kann den Missbrauch von Kindern wohl nur in sehr wenigen Fällen indirekt bekämpfen. Vielmehr wird die Chatkontrolle massenhaft Verdachtsmeldungen auf die Bildschirme von Beamt*innen spülen. Nur ein winziger Bruchteil dieser Meldungen kann voraussichtlich Hinweise liefern, um Kinder möglicherweise aus den Händen gewaltsamer Täter*innen zu retten.
Einige der massenhaften Meldungen hätten zumindest einen anderen Mehrwert, selbst wenn Betroffene nicht oder nicht mehr in Gefahr schweben. Es ist oft verletzend und traumatisierend, wenn sexualisierte Aufnahmen ohne Einverständnis immer wieder geteilt werden. Die Verbreitung der Aufnahmen kann zudem strafbar sein, und die geplante Chatkontrolle könnte das eindämmen.
Aber zurück zum Bruchteil der Fälle, die bei Ermittlungsbehörden landen: Auch hier geht es erstaunlich selten darum, Kinder aus den Händen von Täter*innen zu befreien. In Deutschland zum Beispiel ist ein Großteil der Tatverdächtigen bei „Kinderpornografie“ selbst noch minderjährig. Oft ahnen die Verdächtigen nicht einmal etwas davon. Auch hier liegt das Problem in einer extrem breiten Definition: Postet beispielsweise nur eine Person ein verdächtiges Foto im Klassenchat, dann können alle Mitglieder dieser Chat-Gruppe ernste Probleme bekommen. Denn alle haben das verdächtige Foto dann auf ihrem Handy – und vor dem Gesetz kann das als „Besitz“ von „Kinderpornografie“ gelten. Die Staatsanwaltschaft muss ermitteln.
Im Oktober 2022 hat die Süddeutsche Zeitung darüber mit Sebastian Büchner von der Generalstaatsanwaltschaft Berlin gesprochen. „Wir sehen uns einer Verfahrensflut ausgesetzt“, sagt der Oberstaatsanwalt. Diese Flut kann noch heftiger werden, wenn das geplante EU-Gesetz kommt. Bloß mit der „Bekämpfung des sexuellen Missbrauchs von Kindern“ hätte das wenig zu tun. Missbrauch bekämpfen – also Minderjährige vor Gewalt retten – kann das Gesetz wohl nur in Ausnahmefällen. Hier müssen durch die Wortwahl geweckte Erwartungen drastisch heruntergeschraubt werden. Was das Gesetz viel eher leistet: Es erfasst systematisch Aufnahmen, die Minderjährige und Nacktheit zeigen.
Die Worte verschleiern, wie wenig das Gesetz leistet
Bisher wurde die Debatte um die Chatkontrolle davon geprägt, dass sie Grundrechte verletzt. Denn es ist nicht vereinbar mit dem Grundrecht auf Vertraulichkeit der Kommunikation, wenn massenhaft private Nachrichten durchsucht und überwacht werden. Doch selbst, wenn man mal alle anderen Grundrechte ausblendet, bleibt das geplante Gesetz hinter den selbst gesteckten Zielen zum Kinderschutz zurück.
Die Rhetorik der EU-Kommission verschleiert, wie wenig die geplante Chatkontrolle eigentlich für Kinder leisten kann, und sie legitimiert die damit einhergehende Massenüberwachung. Mit dem massenhaften Sammeln von Aufnahmen, die Minderjährige und Nacktheit zeigen, ist noch keinem Kind geholfen. Stattdessen stellt sich die Frage, ob diese auf Vorrat angelegte Nacktbildersammlung nicht selbst ein Risiko darstellt – etwa, weil Kriminelle nichts lieber täten, als diesen Datensatz zu erbeuten.
Das macht den Blick frei auf effektivere Ansätze, um Kinder vor Gewalt zu schützen. Dafür muss man nicht Milliarden Chat-Nachrichten von unbescholtenen Erwachsenen durchleuchten und Abermillionen Hinweise sichten. Man kann sich auch einfach direkt mit den Kindern beschäftigen und schauen, ob es ihnen gut geht. Dafür gibt es unter anderem Erzieher*innen, Lehrer*innen, Ärzt*innen und Sozialarbeiter*innen.
Kinderschutz statt Chatkontrolle
In einem Essay rechnet der britische IT-Sicherheitsforscher Ross Anderson schonungslos mit der geplanten Chatkontrolle ab. Anderson ist Professor an der Universität Cambridge. Er baut seine Argumentation darauf auf, dass Kinder die meiste Gewalt im direkten Umfeld wie der eigenen Familie erfahren. Anderson fordert unter anderem, die Anzahl Sozialarbeiter*innen für Kinder zu erhöhen. Sozialarbeit ist allerdings hart und undankbar, wie Ross schreibt. Es könne verlockend sein, sich stattdessen „an einen Computer zu setzen und mit Machine Learning zu spielen“. Von der Chatkontrolle als Maßnahme für Kinderschutz hält er nichts:

Die Vorstellung, dass sich komplexe soziale Probleme mit günstigen technischen Lösungen beseitigen lassen, ist der Sirenengesang der Software-Anbieter und hat schon so manche leichtgläubige Regierungsstelle ins Verderben gelockt.

Ross schreibt zwar, er habe Großbritannien im Blick, seine Ausführungen lassen sich aber auf Deutschland übertragen. Passend dazu ist am 17. November eine Info-Kampagne gestartet. Familienministerin Lisa Paus (Grüne) und die Missbrauchsbeauftragte des Bundes betonen: „Kinder und Jugendliche sind vor allem im eigenen Umfeld der Gefahr sexueller Gewalt ausgesetzt“. Die Kampagne soll Menschen im Umfeld der Kinder sensibilisieren. Geschätzt seien pro Schulklasse ein bis zwei Kinder von sexueller Gewalt betroffen. Rund drei Viertel der Fälle passieren demnach im direkten Umfeld wie der eigenen Familie. Um also zwei Kinder pro Klasse zu finden, möchte die EU-Kommission Milliarden private Chat-Nachrichten scannen lassen und Abermillionen private Fotos erfassen.
Professionelle Hilfe für Kinder leisten dagegen zum Beispiel Jugendämter, und die melden auch in Deutschland Überlastung, wie 2018 eine Umfrage in 175 Jugendämtern zeigte. Anschaulich macht das eine Angestellte des Jugendamts Berlin-Wedding in einem Interview aus dem Jahr 2017. Demnach müsse eine Vollzeitkraft 80 Familien gleichzeitig betreuen. „Das ist ein unhaltbarer Zustand. Denn es kommt oft vor, dass wir sogenannte leichte Fälle nicht bearbeiten können. Wir haben einfach nicht die Zeit jeder Meldung nachzugehen.“
Direkte Hilfe statt Nacktbildersammlung
Im Mai haben wir mit dem Geschäftsführer des Deutschen Kindervereins, Rainer Rettinger, gesprochen. Er forderte eine „Verdopplung der Fachkräfte im Jugendamt“. Mit Blick auf die Chatkontrolle sagte er: „Solange die Hausaufgaben der Politik nicht gemacht sind, solange brauchen wir über diese Maßnahmen nicht reden.“
Geld fehlt nicht nur für Jugendämter, sondern bei allen Anlaufstellen, die betroffenen Kindern und Jugendlichen helfen können, wie Tanja Brunnert vom Berufsverband der Kinder- und Jugendärzte darlegt: „Kitas schliessen tageweise, da nicht genug Personal zur Verfügung steht, in Schulen steigt die Anzahl von ausgefallenen Stunden kontinuierlich an, in Kinder- und Jugendarztpraxen ist die Inanspruchnahme seit Beginn der Pandemie auf einem stabil hohen Niveau, sodass kaum Erholungsphasen für die Mitarbeitenden bestanden.“ Unter diesen Bedingungen sei es extrem schwierig, den Blick für die betroffenen Kinder und Jugendlichen offen zu halten und sich ihrem Schutz ausreichend zu widmen. „Es bräuchte hier sicherlich eine viel bessere finanzielle Ausstattung“, schreibt Brunnert.
Ähnlich sieht das der Bundevorsitzende des Verbandes Bildung und Erziehung (VBE), Udo Beckmann. Der VBE vertritt als Gewerkschaft rund 164.000 Pädagog*innen. „Sowohl Schulen als auch Kitas sind aufgrund jahrelanger Unterfinanzierung personell dramatisch geschwächt“, so Beckmann auf Anfrage. Zwar gebe es gut konzipierte Hilfsangebote, aber sie „können nicht helfen, wenn es keine Fachkräfte gibt, die sie umsetzen.“ Der VBE fordere schon länger den Einsatz von Sozialarbeiter*innen und gesundheitlichen Fachkräften an Schulen. Beckmann schreibt, sie könnten einen wertvollen Beitrag leisten, sowohl in der der Prävention als auch für Betroffene sexualisierter Gewalt.
Der geplante Überwachungsapparat der EU-Kommission erscheint umso absurder, wenn man sich vor Augen führt: Offenkundig unternimmt der Staat eben nicht alles, um Kinder vor Gewalt zu schützen. Im Gegenteil. Der Staat könnte schlicht mehr Menschen beschäftigen, die sich unmittelbar um Kinder und Familien kümmern. Stattdessen plant der Staat eine systematische Nacktbildersammlung, die Minderjährige zusätzlich gefährdet.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Sebastian Meineck

Adblock Detected

Bitte unterstützen Sie uns, indem Sie Ihren Werbeblocker deaktivieren.

Refresh Page
Mastodon
KULTUROPLEVELSETILBUD · THERE · SEARCH