Drücken Sie „Enter“, um den Inhalte zu überspringen

Inhaltemoderation auf Twitter: „Wir bei HateAid erleben vor allem Willkür“

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist…
Auf Twitter floriert die Hassrede. Zum ersten Mal hat nun das Bundesamt für Justiz ein Bußgeldverfahren eingeleitet, das die Qualität der Moderation unter die Lupe nimmt. Wir haben bei Josephine Ballon von der Hilfsorganisation HateAid nachgefragt, was das bedeutet.
Wer Twitter öffnet, wird zuweilen mit mehr Hassrede als früher konfrontiert. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Fotos: Hasan Almasi und Joshua Hoehne. Montage: netzpolitik.orgSeit Dienstag läuft ein Bußgeldverfahren gegen Twitter. Es ist nicht das erste Verfahren wegen Verstößen gegen das Netzwerkdurchsetzungsgesetz (NetzDG), welches das Bundesamt für Justiz (BfJ) anstößt. Aber es ist ein außergewöhnliches: „Dieses Verfahren ist tatsächlich das erste, bei dem es um die mangelhafte Moderation als solche geht“, sagt Josephine Ballon von der Hilfsorganisation HateAid.
Seit gut fünf Jahren gilt das NetzDG inzwischen. Es soll Nutzer:innen großer sozialer Netze wie Twitter oder Facebook vor illegaler Hassrede schützen, aber auch die Betreiber zu mehr Transparenz verpflichten oder der Wissenschaft besseren Zugang zu den Datensilos der Online-Dienste bieten. Verstöße gegen die Auflagen gab es seitdem genug, mit Bußgeldern belegt wurden unter anderem Facebook oder Telegram. Beanstandet hatte die Aufsichtsbehörde BfJ aber bislang weitgehend formale Versäumnisse der Betreiber, etwa unvollständige Transparenzberichte oder versteckte Meldewege.
Einladung zu Hassrede
Dass Twitter seit seiner Übernahme durch den Milliardär Elon Musk die Zügel schleifen lässt, steht schon länger fest. Nicht nur hatte Musk einen Großteil der Belegschaft gefeuert, darunter viele Moderator:innen. Der sich in der reaktionären US-Blase allem Anschein nach wohlfühlende Unternehmer hatte auch viele Accounts entsperren lassen, die zuvor wegen Hassrede vom Dienst geflogen waren. Als würde man „das Tor zur Hölle aufstoßen“, warnte damals die Expertin Alejandra Caraballo.
Offenkundig haben sich die Befürchtungen bestätigt. „Dem BfJ wurden zahlreiche Inhalte gemeldet, die auf Twitter veröffentlicht wurden, nach Einschätzung der Behörde rechtswidrig sind und trotz Nutzerbeschwerden nicht innerhalb der gesetzlich vorgesehenen Fristen von der Anbieterin gelöscht oder gesperrt wurden“, führt das BfJ als Grundlage für das Bußgeldverfahren an. Bei offensichtlich strafbaren Inhalten haben Betreiber 24 Stunden nach Eingang der Beschwerde Zeit, um solche Inhalte zu löschen oder zu sperren. Für sonstige rechtswidrige Inhalte gilt eine Frist von sieben Tagen.
Zuletzt hatten Aktivist:innen mit einer Datensammlung nachgewiesen, dass Twitter bei der Moderation und das BfJ als zuständige Aufsichtsbehörde kläglich versagen. Ihrer Auswertung zufolge hat Twitter Erstmeldungen nicht ausreichend betrachtet oder mutmaßlich gewollt übergangen, zu viel automatisiert – und damit fehlerbehaftet – moderiert sowie klar illegale Inhalte selbst nach mehrmaligem Melden für unbedenklich befunden.
Die Vermutung steht im Raum, dass die Dokumentation der anonymen Aktivist:innen den entscheidenden Ausschlag für das nun eingeleitete Verfahren gegeben hat. Den Tenor der Auswertung kann Josephine Ballon grundsätzlich bestätigen, in der Beratungsarbeit lasse sich eine Zunahme von Vorfällen auf Twitter verzeichnen. „Wir registrieren aktuell von keiner Plattform mehr Vorfälle digitaler Gewalt“.
Kein Einblick in Qualität der Inhaltemoderation
Doch nach welchen Kriterien Twitter genau moderiert – oder eben nicht –, bleibt weiter verborgen. „Es ist meines Erachtens eine große Schwäche des NetzDG, dass es wenig Möglichkeiten bietet, sich mit der Qualität der Content-Moderation zu befassen“, sagt Ballon.
Aus den Transparenzberichten lasse sich lediglich ablesen, wie viele Meldungen eingegangen sind und auf welcher Grundlage. Bei Letzterer dürfte es sich jedoch überwiegend um die laienhafte Einschätzung der Nutzenden selbst handeln. Ihnen werde nur ein Katalog aus Straftatbeständen ohne jegliche inhaltliche Erläuterung zur Auswahl gegeben, so die Juristin. Die Aussagekraft bliebe also gering.
Zudem entfernen die Betreiber unliebsame Inhalte aufgrund ihrer AGB beziehungsweise Gemeinschaftsrichtlinien meist ohnehin. Damit fallen sie aus den vorgeschriebenen NetzDG-Transparenzberichten heraus. Um welche Art von Inhalten es sich letztlich gehandelt haben könnte, ist bestenfalls den Betreibern selbst bekannt.
Was mit den Rest geschieht, sei völlig unklar, so Ballon. So wollen manche Expert:innen herausgefunden haben, dass die teils kurzen Löschfristen zu sogenanntem Overblocking führten, also zu viele Inhalte im Zweifel ungerechtfertigt gelöscht würden. Andere wiederum sehen Hinweise auf Underblocking, sagt Ballon, weil nur wenige Meldungen überhaupt zu einer Löschung führen. Am Ende würden aber alle qualitative Daten über die Moderation selbst fehlen, Gesetzmäßigkeiten ließen sich von Außen nicht erkennen: „Wir bei HateAid erleben vor allem Willkür.“
Digital Services Act wird wohl nur wenig ändern
Ob das Bußgeldverfahren effektiv Abhilfe schaffen wird, bleibt vorerst offen. Dauern wird es auf jeden Fall. Zunächst kann Twitter Stellung zu den Vorwürfen nehmen. Darauf folgt gegebenenfalls ein Vorabentscheidungsverfahren beim Amtsgericht Bonn. Dort soll überdies festgestellt werden, ob die beanstandeten Inhalte überhaupt rechtswidrig waren. Am Ende würde eine Geldbuße von bis zu fünf Millionen Euro drohen – eine Summe, die selbst das finanziell strauchelnde Twitter einigermaßen schmerzfrei verdauen dürfte.
In den Digital Services Act (DSA), der als vorrangige Regelung das rechtlich ohnehin angeschlagene NetzDG bald zum Großteil ablösen soll, setzt Ballon nur geringe Hoffnungen. Zwar bringt das EU-Regelwerk in manchen Punkten Verbesserungen mit sich, etwa bei der Aufsicht und bei der Transparenz. „In Bezug auf die Moderation einzelner Inhalte, die beim DSA nicht im Fokus steht, wird es vermutlich schwieriger, den Nachweis eines Versagens zu erbringen“, sagt Ballon. Denn der DSA regle anders als nach NetzDG keine explizite Löschpflicht, sondern lediglich eine Prüfpflicht, zudem sehe es auch keine starren Fristen für eine Löschung vor. „Das macht es juristisch gesehen nicht leichter.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Tomas Rudl

Se independent news. Med sin alkoholdispenser og rummelige udendørsareal er wow park en sikker oplevelse for alle. Have significant implications for warfare, raising questions about their role in a potential world war 3.