Drücken Sie „Enter“, um den Inhalte zu überspringen

Youtube: Desinformation ist nicht nur ein Algorithmen-Problem

Youtube Empfehlungen

Die Empfehlungsalgorithmen von Youtube verbreiten derzeit relativ wenige irreführende Inhalte, hat eine aktuelle Studie der Landesmedienanstalten ergeben. Ausgehend von Suchergebnissen zu „Covid-19-Pandemie“, „Klimawandel“ oder „Flüchtlinge“ würden Nutzer:innen überwiegend auf seriöse Nachrichtenquellen gelenkt, was sich auch in den späteren Empfehlungen neben den jeweiligen Videos widerspiegele.

Jedoch gewährt die Studie nur einen kleinen Einblick in die Funktionsweise der größten Videoplattform der Welt. Beispielsweise hat das eigens entwickelte Webtool personalisierte Empfehlungen nicht untersucht, die sich mit der Zeit an die Vorlieben der jeweiligen Nutzer:in anpassen. Rund 70 Prozent aller Videoaufrufe speisen sich aus dem Empfehlungssystem, sagte der Youtube-Produkt-Chef Neal Mohan vor drei Jahren.

„Es ist eine Daueraufgabe, die mit einer Studie nicht erledigt ist“, sagte Thorsten Schmiege von der Bayerischen Landeszentrale für neue Medien bei der Vorstellung. Es gebe „noch viel Luft nach oben“.

Trotzdem liefert die Untersuchung einige interessante Erkenntnisse: So macht der Algorithmus von Youtube öffentlich-rechtliche und etablierte Medienanbieter überdurchschnittlich oft sichtbar. Allerdings verengt das zwangsläufig die Vielfalt der Empfehlungen: Häufig werden dieselben Videos und Kanäle vorgeschlagen und neben Videos einzelner Kanäle werden fast ausschließlich Videos desselben Kanals angezeigt. Dies führe dazu, dass nur wenige thematisch passende Empfehlungen angezeigt werden, heißt es in der Studie.


Alles neu macht der Medienstaatsvertrag

Durchgeführt hat die Studie das Marktforschungsunternehmen Kantar mit der Technischen Hochschule Aachen im Auftrag mehrerer Landesmedienanstalten. Seit Ende letzten Jahres gilt der neue Medienstaatsvertrag, damit fällt den Anstalten unter anderem die Aufsicht über Videoplattformen wie Youtube zu.

Sie sollen darüber wachen, dass auf solchen Diensten die Meinungsvielfalt gewahrt bleibt. Zudem sollen sie sicherstellen, dass Online-Angebote, die sich einen journalistischen Anstrich verpassen, auch tatsächlich journalistische Sorgfaltspflichten einhalten. Das gilt auch für einzelne Youtube-Kanäle und andere Online-Medien.

Die Konsequenzen werden langsam sichtbar. Im Februar versandte etwa die Medienanstalt Berlin-Brandenburg Hinweisschreiben an die Betreiber mehrerer Online-Postillen, die für das Verbreiten von Desinformation bekannt sind. Darunter sollen sich die Facebook-Seite des AfD-nahen „Deutschland-Kuriers“ befinden, das rechte Jugendportal Flinkfeed und das Angebot des inzwischen bei Youtube rausgeflogenen Ken Jebsen, auch als KenFM bekannt.

Rechte Desinformationsnetzwerke

Als rechtslastig stellten sich nun auch viele der desinformierenden Videos heraus, die sich die Youtube-Studie genauer angesehen hatte. Der Grundton sei dabei fast durchgängig, einen „alternativen“ Blickwinkel auf einen bestimmten Sachverhalt anzubieten.

Viele dieser Youtuber würden sich als „rebellische Kämpferinnen und Kämpfer“ sehen, die gegen eine vermeintliche „Meinungsdiktatur“ aufbegehrten – eine inzwischen gut eingeübte Pose reaktionärer Hetzer. Beliebtes Feindbild seien zudem öffentlich-rechtliche Medien sowie „Mainstream- oder Systemmedien“, die meist diskreditiert würden.

Auch ein interessanter Artikel:  Auf dem Weg zum Digital Services Act: Wie die EU Gesetze gegen Desinformation macht

Obwohl insgesamt nur sechs Prozent der untersuchten empfohlenen Inhalte aus potenziell desinformativen Kanälen stammten, erhöhte sich die Wahrscheinlichkeit, in dieser Blase zu bleiben, wenn ein desinformatives Video als Startpunkt diente. Im Vergleich zu neutralen Startpunkten enthielten die analysierten Empfehlungsbäume deutlich mehr potenziell desinformative Inhalte.

Empfehlungsalgorithmus nur ein Puzzlestein

Verschwunden sind solche Inhalte nicht, im Gegenteil. Die Empfehlungen sind nicht alleiniger Treiber hoher Aufrufzahlen. Laut der Studie wurden drei der populärsten, potenziell desinformativen Videos insgesamt rund zehn Millionen Mal aufgerufen, bei der Untersuchung jedoch nur 24 Mal empfohlen. Offenbar wurden die Inhalte auf anderen Plattformen und Messenger-Diensten verbreitet, als Links unter anderen einschlägigen Videos manuell gepostet oder stammen aus direkten Zugriffen von Abonnent:innen.

Dass der Algorithmus von Youtube nur ein Faktor unter vielen ist, hatte die Forscherin Becca Lewis bereits 2018 in ihrer Studie zu rechten Influencer-Netzwerken festgestellt. Gut vernetzte Youtube-Persönlichkeiten verweisen gegenseitig auf sich, nutzen unterschiedlichste Kanäle, um auf sich aufmerksam zu machen – und speisen sich vor allem aus „parasozialen Beziehungen“ zu ihrer Community, die Intimität versprechen und das Publikum anfällig machen für reaktionäres Gedankengut.

Auch die Studie der Landesmedienanstalten verweist auf den Netzwerk-Effekt und betont, dass Desinformation nicht nur im Kontext einer einzigen Plattform betrachtet werden dürfe, „sondern es sich um ein transmediales Phänomen handelt, das viele unterschiedliche Medienplattformen und -kanäle betrifft“. Eine Regulierung von einzelnen Plattformen würde daher das Problem nicht lösen, sondern lediglich auf andere Plattformen und Kanäle verlagern.

Desinformation bleibt ein Problem, Intransparenz ebenso

Auch wenn Youtube schon seit einigen Jahren daran arbeitet, desinformative Inhalte auf der Plattform zu identifizieren und zu sperren, bleibt „Desinformation ein ernstzunehmendes Problem“, konstatiert die Studie. Dem Problem sei nur schwer automatisiert beizukommen, zudem mangle es der Plattform an Transparenz und Zugang für Forscher:innen.

Einiges daran könnte künftig das EU-Gesetz für digitale Dienste verbessern: Dieses sieht einen besseren Umgang mit Algorithmen vor und soll der Wissenschaft endlich Zutritt verschaffen zu den Blackboxen der großen sozialen Netzwerke.

Ein „Reverse Engineering“ der Algorithmen, wie es derzeit der Fall ist, könnte dann entfallen, heißt es in der Youtube-Studie: „Nur wenn die Wissenschaft Zugang zu aussagekräftigen Daten hat, aus denen sich repräsentativ großflächige Trends ablesen lassen, kann auch nachprüfbare Evidenz zu Empfehlungsalgorithmen zur Verfügung gestellt werden.“


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Hier weiter lesen...