Dieser Artikel stammt von Netzpolitik.org.
Online Safety Code: Irlands neue Regeln für YouTube, TikTok und Meta
Viele Tech-Konzerne haben ihren EU-Sitz in Irland. Dort verlangt nun der Online Safety Code verschärfte Alterskontrollen und Maßnahmen gegen „schädliche“ Inhalte. Mindestens Reddit will nicht mitmachen.
Die irische Medienaufsicht (Coimisiún na Meán) hat neue Regeln für Video-Dienste verabschiedet, die in Irland ihren Sitz haben. Damit gilt der Online Safety Code unter anderem für YouTube, TikTok, Instagram, Facebook, LinkedIn und den Twitter-Nachfolger „X“.
Die betroffenen Unternehmen „sind verpflichtet, alle Nutzer*innen ihrer Dienste in ganz Europa zu schützen, indem sie die im Kodex geforderten Maßnahmen ergreifen“, erklärt die irische Medienaufsicht auf Anfrage von netzpolitik.org. Bei Verstößen drohen saftige Strafen von bis zu 20 Millionen Euro oder zehn Prozent des jährlichen Umsatzes. Die Regeln sollen bis Mitte 2025 schrittweise in Kraft treten.
Die Dienste müssen dem Code zufolge Maßnahmen gegen Inhalte ergreifen, die zwar nicht illegal sind, aber „schädlich“. Erlaubt ein Dienst Videos mit Pornografie oder „grober“ Gewalt, muss er zudem Alterskontrollen einführen, die über eine bloße Abfrage à la „Wie alt bist du?“ hinausgehen.
In Grundzügen setzt Irland damit EU-Recht um, genauer gesagt die Richtlinie über audiovisuelle Mediendienste (AVMD-RL), das Gesetz über digitale Dienste (DSA) und die Verordnung zur Bekämpfung der Verbreitung terroristischer Online-Inhalte (TCO). Teils dürfte der irische Code jedoch auch über EU-Recht hinausgehen. Ein Blick auf den Online Safety Code ist schon allein deshalb interessant, weil das Gesetz mehrere netzpolitische Entwicklungen durch nationale Gesetze untermauert.
Erstens schafft es eine Grundlage, um unter irischer Aufsicht strengere Alterskontrollen bei einigen der weltgrößten Social-Media-Plattformen zu verlangen. Zweitens festigt das Gesetz das Prinzip, dass auch nicht-illegale Inhalte im Netz zum Gegenstand staatlicher Regulierung werden, sofern sie als „schädlich“ gelten.
Inhalte löschen, die Kindern schaden könnten
Das Alter von Nutzer*innen lässt sich mit mehreren Methoden kontrollieren, aber keine ist frei von Risiken. So schließen Alterskontrollen durch Ausweise oder Dokumente Menschen ohne Papiere von der digitalen Teilhabe aus. Alterskontrollen, die auf Schätzungen basieren, etwa per Gesichtserkennung, sind anfällig für Fehler, insbesondere bei Menschen, die nicht ausreichend in den Trainingsdaten repräsentiert sind. Und ob die Kontrollen auf Dokumenten oder auf Biometrie basieren – in beiden Fällen können sie Datenschutz und Privatsphäre einschränken.
Beide Ansätze von Alterskontrollen sind unter dem Online Safety Code möglich, genaue Vorgaben macht er den Anbietern nicht. Verpflichtend sind sie sowohl bei Pornografie als auch bei Videos, die „grobe oder grundlose Gewalt oder Grausamkeiten oder deren Auswirkungen realistisch darstellen“. Das lässt Spielraum für Interpretation. Immerhin gibt es auf den genannten Diensten auch Berichterstattung über etwa Ausschreitungen oder Terroranschläge, in denen solche Darstellungen auftauchen können.
Der Online Safety Code verlangt von den Diensten zudem Maßnahmen gegen Inhalte, die „die körperliche, geistige oder sittliche Entwicklung von Minderjährigen beeinträchtigen können“. Ausdrücklich erwähnt werden etwa Inhalte, die zu Essstörungen, selbstverletzendem Verhalten oder Suizid ermutigen sowie Inhalte, die zu Hass und Gewalt gegenüber marginalisierten Gruppen anstiften. Dem Gesetz zufolge müssen betroffene Dienste solche Inhalte mithilfe interner Richtlinien untersagen und entsprechend entfernen, wenn sie darauf hingewiesen werden. Damit folgt der Online Safety Code dem Prinzip „Notice and Takedown“, verlangt also keine Uploadfilter.
Reddit wehrt sich, YouTube und Meta sind fein
Die Resonanz von den betroffenen Plattformen selbst ist gering. Auf Anfrage von netzpolitik.org übten Google sowie die Instagram- und Facebook-Mutter Meta keine Kritik an den Regelungen. Beide Konzerne ignorierten unsere Frage, inwiefern sie überhaupt Plattform-Richtlinien anpassen müssen. TikTok hat unsere Anfrage bislang nicht inhaltlich beantwortet, Twitter-Nachfolger X hat nicht reagiert.
Reddit dagegen scheint mit dem Online Safety Code alles andere als zufrieden. Die Plattform hatte jüngst bekannt gegeben, nicht etwa in Irland, sondern in den Niederlanden ihren Sitz zu haben, wie die irische Tageszeitung „Irish Independent“ berichtete. Zuvor hatte sich Reddit noch in Irland gegen die Einstufung als Video-Dienst gewehrt, allerdings erfolglos.
Kritik am Online Safety Code kommt von EDRi (European Digital Rights), dem Dachverband von Organisationen für digitale Freiheitsrechte. Digital-Expertin Janine Patricia Santos warnt davor, Alterskontrollen für eine Patentlösung zu halten, immerhin brächten sie Risiken für Privatsphäre und könnten den legitimen Zugang zu Inhalten und Dienstleistungen erschweren.
Bevormundung statt Befähigung
Die Empfehlungen von EDRi für differenziertere Ansätze seien „eklatant missachtet“ worden. Der Verband plädiert für eine Kombination aus Sicherheit durch Design, worunter etwa Meldemechanismen fallen dürften, sowie weiche Altersprüfungen, bei denen Nutzer*innen ihr Alter selbst benennen.
Mit Sorge betrachtet Santos auch die Regulierung von „schädlichen“ Inhalten, weil deren Definition ideologisch bestimmt sei. Was das bedeuten könnte, zeigt etwa der Blick auf autoritäre Staaten, die auch queere Inhalte als „schädlich“ einstufen. Oder nach Deutschland, wo Fachleute darüber diskutieren, welche Formen menschlicher Nacktheit und Sexualität ab welchem Alter angemessen sind.
„Der Schutz von Minderjährigen sollte auf Befähigung und nicht auf Ausgrenzung basieren“, schreibt Santos auf Anfrage von netzpolitik.org. Dahinter steht der Gedanke, dass man Kinder und Jugendliche eher für einen selbstständigen Umgang mit Inhalten rüstet. Der pauschale Ausschluss von Inhalten dagegen könne bevormundend wirken, so Santos. Das sei besonders dann problematisch, wenn junge Menschen Stück für Stück ihre eigene Sexualität entwickeln und ihr kritisches Denken ausbauen.
Mit dem Online Safety Code stimmt Irland in einen weltweiten Kanon an werdenden Jugendmedienschutz-Gesetzen ein, die teils ein erhebliches Risiko für Teilhabe, Privatsphäre und den freien Zugang zu Informationen darstellen. Zu nennen wären etwa in den USA der Kids Online Safety Act (KOSA) und Gesetze zu Alterskontrollen auf Ebene der US-Bundesstaaten, oder der britische Online Safety Bill.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel
Author: Sebastian Meineck