Drücken Sie „Enter“, um den Inhalte zu überspringen

EU-Gesetz für digitale Dienste: Warum wir eine bessere Regulierung sozialer Medien brauchen

Demonstration in Polen

Die Reaktion kam prompt. Nur kurz nach dem Rauswurf von Donald Trump bei Twitter und anderen Online-Diensten kündigten die rechten Regierungen Polens und Ungarns Gesetze an, die eine „Zensur“ konservativer Stimmen im Internet durch private Unternehmen verhindern sollen.

Ihre Angst ist nicht ganz unbegründet. Noch hat etwa der polnische Bildungsminister Przemysław Czarnek einen Facebook-Account. Dort gibt sich der Ex-Abgeordnete der langjährigen Regierungspartei PiS zurückhaltend und offiziell, lässt sich bei Kranzniederlegungen und Kirchenbesuchen fotografieren oder zelebriert wichtige Jahrestage der polnischen Geschichte.

Was der Konservative aber offline von sich gibt, dürfte mit den Nutzungsbedingungen des sozialen Netzwerks nur schwer vereinbar sein. „Wir müssen uns gegen die LGBT-Ideologie verteidigen und aufhören, diesen Idiotien über gewisse Menschenrechte oder Gleichstellung zuzuhören“, sagte Czarnek im Vorjahr einem TV-Sender. „Diese Leute sind nicht gleichrangig mit normalen Menschen, lasst uns endlich diese Debatte beenden.“

In seinen Gemeinschaftsstandards weist Facebook darauf hin, dass „Hassreden, glaubwürdige Drohungen oder direkte Angriffe auf Einzelpersonen oder Personengruppen“ nicht erlaubt seien. Zwar habe die Verpflichtung zur Meinungsfreiheit höchste Priorität, schreibt das Unternehmen, „aber uns ist bewusst, dass das Internet neue und vermehrte Möglichkeiten für Missbrauch bietet“.

Reaktionäre Welle

Wer gegen LGBTQ-Menschen hetzt, bleibt selten dort stehen. Muslimen unterstellt Czarnek, Europa „dechristianisieren“ zu wollen. Frauen, die gegen das strikte Abtreibungsverbot protestierten, seien „linksradikale Revolutionärinnen“, für die es in Polen „keinen Platz geben kann“, so der nationalistische Katholik. Thesen, die sich auch auf reaktionären Boards wie 4chan, auf Telegram-Kanälen oder in Bekennerschreiben rechtsextremer Mörder wiederfinden.

In liberalen Demokratien sind solche Ansichten oft genug legal – bis es kracht. Jahrelang hatte der ehemalige US-Präsident Trump sein digitales Megaphon praktisch ungehindert dazu genutzt, um mit Lügen die tägliche Debatte zu formen, zu Gewalt aufzurufen und die Demokratie zu untergraben. Warnungen vor den erwartbaren Folgen solcher Rhetorik gab es genug. Verloren hat Trump seinen direkten Zugang zu sozialen Medien aber erst, nachdem seine Anhänger das US-Kapitol stürmten, um seine Abwahl gewaltsam zu verhindern.

Bislang zählen die Verluste seiner Accounts auf Twitter, Facebook und Youtube zu den wenigen Konsequenzen des letztlich gescheiterten Putschversuchs. Politisch wurde Trump von seinen republikanischen Parteifreunden im Impeachment-Verfahren freigesprochen und bereitet schon seine Rückkehr vor. Ob er rechtlich belangt werden kann, müssen erst langjährige Gerichtsverfahren zeigen.

Digitale Spaltung mal anders

„Nur die gesamte Gesellschaft kann Extremismus wirklich effektiv eindämmen“, schrieb die Psychologin und Ex-Piratin Marina Weisband vor zwei Jahren. „Durch das, was wir an Normen entwickeln. Durch das, was tabu ist. Dadurch, wie inklusiv unsere Gesellschaft ist.“

Diese Normen zeichnen sich immer klarer ab. Was vielleicht in direkten Gesprächen, Stammtischrunden oder politischen Brandreden durchgeht, kann im Internet, gegebenenfalls algorithmisch verstärkt, eine völlig neue Dimension und Dynamik erlangen. Seit Jahren nehmen etwa antisemitische Straftaten in Deutschland zu. Schuld daran ist nicht das Internet allein, dazu beigetragen hat es aber zweifellos.

Vor allem Facebook hat eine gut dokumentierte Angewohnheit, extremistische Entwicklungen auf seinen Diensten zu ignorieren, oft wider besseres Wissen. Während interne Forschungsabteilungen inzwischen darauf drängen, möglichst früh gegen gefährliche Bewegungen einzuschreiten, von der faschistoiden Verschwörungserzählung QAnon bis zu rechtsextremen Milizen wie Oath Keepers, empfehlen die Algorithmen der Plattform radikalisierende Inhalte munter weiter.

Das hält Nutzer:innen auf der Plattform – und nimmt Rücksicht auf die wiedererstarkte Rechte, ob in den USA oder in Europa. Dieser Mechanik sind alle Plattformen ausgesetzt, nicht nur Facebook: Selbst zurückhaltende Eingriffe wie ein Faktencheck offenkundiger Lügen werden zur Einschränkung der Meinungsfreiheit stilisiert. Hat eine Äußerung dann doch mal Folgen, etwa pauschalisierende Hetze gegen Muslime, dann sieht die AfD-Politikerin Beatrix von Storch „das Ende des Rechtsstaates“ gekommen.

Meinungsfreiheit ist keine Einbahnstraße

In netzpolitischen Debatten gebe es ganz schnell diesen Reflex, „wenn irgendetwas im Netz nicht gesagt werden darf, dann sei das eine Einschränkung für die Meinungsfreiheit“, sagte Ulf Buermeyer von der Gesellschaft für Freiheitsrechte auf einem Fachgespräch zum geplanten EU-Gesetz für digitale Dienste.

In vielen Fällen könne das natürlich so sein. „Man muss aber auf der anderen Seite betrachten, dass es auch viele Meinungsäußerungen gibt, die keinen wertvollen Beitrag zur Debatte leisten, sondern ganz im Gegenteil, sogar gegen nationales Strafrecht verstoßen“, sagt der Jurist.

Solche verbotenen, illegalen Äußerungen bleiben jedoch nicht ohne Folgen auf die Debatte: Unter anderem könnten sie dazu führen, dass sich angegriffene Menschen gar nicht mehr trauten, daran teilzuhaben. Im Kontext von Hassrede, sexualisierter Gewalt und verwandten Phänomenen handle es sich nicht nur um ein Abwehrrecht gegen Eingriffe durch Plattformen oder den Staat, sagt Buermeyer: „Meinungsfreiheit ist auch ein ganz zentrales Gut, das es zu schützen gilt, gerade durch geschickte, wohldosierte Eingriffe in die Äußerungsfreiheit anderer.“

Imaginierte „Christenverfolgung“

Jüngst beklagte die ungarische Justizministerin Judit Varga auf Facebook die „technologische Meinungsdiktatur“, welche die Sichtbarkeit christlicher, konservativer und rechter Ansichten limitiere. Auch ihr sei dies schon passiert, sagte sie an anderer Stelle, ohne Beleg. Religion, Nation und das traditionelle Familienmodell würden ersetzt durch „Gender-Ideologie“, Christenverfolgung und die Zerstörung des Nationalstaats. Man sei Opfer der „liberalen offenen Gesellschaft“, schrieb Varga.

Auch ein interessanter Artikel:  Überwachung: Bundesrat lehnt Gesetz zur Bestandsdatenauskunft ab

Stück für Stück haben Ungarn und Polen im vergangenen Jahrzehnt den Rechtsstaat und die Demokratie abgebaut, gegen beide EU-Länder laufen inzwischen Vertragsverletzungsverfahren. Nun bereiten sie sich auf den nächsten Kampf vor – mit genau den Mitteln liberaler Demokratien, die zuweilen dafür gesorgt haben, dass Hassrede im Netz stehen bleibt.

„Wir wollen nicht mehr von großen Tech-Unternehmen als legales, transparentes und überprüfbares Vorgehen“, fordert die ungarische Justizministerin. Zwar werde man weiterhin auf EU-Ebene an Regeln für den Kontinent mitarbeiten, aber noch im Frühling soll ein ungarisches Gesetz kommen. Dieses soll Menschen vor willkürlichen Sperren schützen, ob Bäckerinnen, Friseure oder Regierungspolitiker, so Varga. Kaum jemand wird da widersprechen, ähnliche Forderungen kamen auch von Kanzlerin Angela Merkel oder Bundesjustizministerin Christine Lambrecht.

Private Regeln bleiben bestimmend

Seit Dezember liegt der Gesetzentwurf der EU-Kommission für die kommenden Regeln im digitalen Raum vor, letzte Woche hat das EU-Parlament seine Hauptverhandler benannt, darunter die deutsche Grüne Alexandra Geese. Doch so ambitioniert der Entwurf auch ausgefallen ist – die meisten dieser Konfliktfelder löst das geplante Gesetz nicht auf.

Das war auch durchaus so gewollt. „Wir wollen nicht der Internet-Wirtschaft aufoktroyieren, was richtige Inhalte sind“, sagte jüngst der EU-Kommissionsbeamte Werner Stengg in dem Fachgespräch zum Gesetzentwurf. Was legal und illegal ist, sei bereits durch europäisches oder nationales Recht geregelt. „Wir beschränken uns auf die prozeduralen Transparenzmaßnahmen“, sagte Stengg.

Um die Aufmerksamkeit eines internationalen Publikums heischende Tweets, die Corona-Maßnahmen mit dem Holocaust vergleichen, werden wohl weiterhin nur in Deutschland gesperrt sein. In EU-Ländern ohne Verbotsgesetz sind sie nicht notwendigerweise illegal.

Auf EU-Ebene tonangebend bleiben weiterhin die Gemeinschaftsstandards der Unternehmen. Eine auf Katzen spezialisierte Plattform wird, wie heute, das Recht haben, Hundefotos postende Trolle rauszuwerfen. Genauso wird es möglich sein, Hetze gegen LGBTQ-Personen oder andere marginalisierte Gruppen zu löschen, auch wenn das manchen Politikern nicht gefallen wird. Wenn die Plattformen aber ihre AGB durchsetzen, „dann möchten wir wissen, was ihr macht, warum ihr es macht, wie ihr es macht und mit welchem Ergebnis“, sagte Stengg.

Besser beschweren

Gegen ungerechtfertigte Sperren sollen erstmals gesetzlich verankerte Beschwerdemechanismen helfen. Im ersten Schritt soll die Überprüfung intern stattfinden, als weitere Instanz ist zudem eine außergerichtliche und von den großen Plattformen unabhängige Beilegung von Streitigkeiten vorgesehen.

Das sollte effektiveren Schutz vor willkürlichen Sperren bieten als es derzeit der Fall ist: Fehler werden immer passieren, zudem erkennt vor allem automatisierte Inhaltemoderation Kontext oder Ironie nicht und sorgt regelmäßig dafür, dass legitime Inhalte aus Teilen des Netzes verschwinden. Gegen Meldekriege, mit denen Trolle ihnen unliebsame Menschen von den großen Online-Diensten vertreiben, ist ebenfalls eine Bremse eingebaut.

Trotzdem habe der Gesetzentwurf ein „prozedurales Problem“, denn weiterhin sei nicht exakt geregelt, wann genau Plattformen für illegale Inhalte haftbar werden, sagte kürzlich der Politikwissenschaftler Murat Karaboga auf einer Tagung zu Hassrede. In ihrer Moderationspraxis hätten die Dienste also weiterhin „Narrenfreiheit“, insgesamt werde die „private governance“ im Internet ausgeweitet, sagte Karaboga.

Ohnmacht trotz verbesserter Beschwerdewege

Das spiegelt sich auch in den Details des Entwurfs wider. So verbessert sich die Situation Betroffener nicht, die einen fragwürdigen, aber letztlich stehen gelassenen Inhalt gemeldet haben, sagt Josephine Ballon von der NGO HateAid. Im Unterschied zu Löschentscheidungen besteht in solchen Fällen keine Begründungspflicht für die Plattformen, genausowenig erhalten sie Zugang zum Gegenvorstellungsverfahren oder zur außergerichtlichen Streitbeilegung. „Ihnen bleibt eigentlich nichts anderes, als zum Anwalt zu gehen“, sagt Ballon.

Auch gebe es bei Inhalten, welche die Nutzer:innen nicht persönlich betreffen, keine Option und auch keinen Ansprechpartner als Beschwerdestelle, so Ballon. Zugleich seien die Plattformen dadurch begünstigt, dass man zwar anonym etwas melden kann, aber eine potenzielle Haftung für Plattformen erst dann greift, wenn die Meldenden ihre Daten hinterlassen. „Aus der Beratung wissen wir, dass viele Leute aus Angst vor der Gegenseite davor zurückschrecken, bei einer Meldung ihren Namen anzugeben“, sagt Ballon.

Die aktuellen Debatten rund um Haftungsregeln und Inhaltemoderation seien ein Schlachtfeld für den globalen Aufstieg des Faschismus auf Kosten der liberalen Demokratie, schrieb die Journalistin Sarah Jeong auf Twitter. Vieles spricht dafür, dass diese These stimmt. Bei der weiteren Debatte rund um das Gesetz für digitale Dienste sollten wir diese Perspektive nicht aus den Augen verlieren.

In den kommenden Wochen werden wir weitere Artikel rund um einzelne Aspekte des Gesetzentwurfs für digitale Dienste veröffentlichen – mit möglichen Optionen, die das Internet zu einem besseren Ort machen könnten.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Hier weiter lesen...

WEG MIT
§219a!