Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln
Merz über Rentner: Falsches Zitat kursiert seit Monaten im Netz
Online wird ein KI-generiertes Video von Kanzler Merz verbreitet, in dem er sagt: „Die Rentner sollten aus diesem Land verschwinden!“ Rund um die Rentendebatte im November erhielten die Beiträge eine große Reichweite, doch das Zitat ist frei erfunden.
von Sara Pichireddu
Falsch
Über diese Bewertung
Falsch. Friedrich Merz hat sich nicht so oder vergleichbar geäußert. Das Zitat ist frei erfunden, angebliches Videomaterial KI-generiert.
„Ja, er hat es gesagt!“ wird in einem Video mit mehr als 16.000 Likes behauptet. Er: Bundeskanzler Friedrich Merz. Es: den Satz „Die Rentner sollten aus diesem Land verschwinden!“ Die Tiktok-Videos mit dem angeblichen Zitat von Merz wurden auch in anderen Sozialen Netzwerken weiterverbreitet, insbesondere auf Facebook. Die Beiträge enthalten Kommentare wie: „Am liebsten würde er euch töten lassen“ oder „Das hat Friedrich Merz wortwörtlich gesagt […]. Hier ist es live, die Rentner sollen verschwinden, am besten gleich in den Sarg“.
Doch das Zitat ist frei erfunden. Es reiht sich damit ein in eine Folge von Falschbehauptungen über angebliche Zitate von Politikern und Politikerinnen. Das virale Tiktok-Video ist inzwischen gelöscht, doch das Fake-Zitat ist weiterhin im Umlauf.

Falsches Zitat von Merz über Rentner kursierte schon im Juli auf Facebook
Der älteste Beitrag mit dem Fake-Zitat, den wir finden konnten, wurde am 30. Juli auf Facebook veröffentlicht. Im November – mitten in der Debatte um das Rentenpaket – kam auf Tiktok eine Video-Sequenz hinzu, die angeblich zeigt, wie Merz den Satz tatsächlich sagt. Vermutlich haben die Urheber mit einem KI-Videogenerator einen Avatar von Merz erstellen lassen. Der Rest des Videos zeigt allgemeines Videomaterial mit losem thematischen Zusammenhang: etwa Bilder von Rentnern und AfD-Politikerinnen.
Dass Merz den oben zitierten Satz nie gesagt hat, bestätigte uns eine Regierungssprecherin. Auch im Textarchiv der Bundesregierung oder der Pressedatenbank Genios findet sich die Formulierung an keiner Stelle.
Tiktok sperrt einige Videos mit falschem Zitat nach unserer Nachfrage
Bis Anfang Dezember wurde das Tiktok-Video mehr als eine Million mal ausgespielt. Das Video hatte zwar einen KI-Hinweis, laut Tiktoks eigenen Community-Richtlinien sind KI-generierte Inhalte jedoch nicht erlaubt, wenn sie eine Person des öffentlichen Lebens zeigen, „die politische Standpunkte vertritt, Produkte unterstützt oder sich zu öffentlichen Themen äußert, obwohl sie dies in Wirklichkeit nie getan hat“.
Auf unsere Nachfrage sperrte Tiktok das Video, sowie weitere mit dem gleichen Inhalt. Die Plattform erklärte dazu, dass die Beiträge gegen die Community-Richtlinien verstoßen hätten. In solchen Fällen erstelle man „automatische Erkennungsregeln“, um ähnliche Inhalte zu finden. An der Zuverlässigkeit dieser Strategie gibt es begründete Zweifel: Zum Zeitpunkt der Veröffentlichung sind auf der Plattform noch immer Video-Varianten mit dem Fake-Zitat zu finden. In einem Fall wurde der Tonspur mit Merz’ gefälschter Stimme Musik hinzugefügt und als Originalton neu hochgeladen.
Abgesehen davon gibt es seit mehreren Wochen Faktenchecks zu dem Video. Auf die Frage, ob ihnen ein Faktencheck zu dem falschen Zitat bekannt war, äußerte sich die Sprecherin des Unternehmens nicht. Tiktok kooperiert nach eigenen Angaben mit Faktencheck-Organisationen. Auf Nachfrage schreibt das Unternehmen: „Faktenprüfer*innen moderieren, sanktionieren oder kennzeichnen Inhalte auf TikTok nicht direkt. Stattdessen liefern sie sachliche Bewertungen, die unsere Moderator*innen und Policy-Teams dabei unterstützen, unsere Richtlinien zu Fehlinformationen korrekt anzuwenden.“
KI-generierte Videos zu erkennen wird immer schwieriger, Faktenchecker geben Tipps
Mit der neuen Generation der Videogeneratoren wird es schwieriger, KI-Inhalte zuverlässig als solche zu erkennen. Modelle wie Googles „Nano Banana Pro“ zeigen nicht mehr unbedingt die bekannten Probleme von zu glatten Texturen, falscher Anzahl von Fingern oder unleserlicher Schrift. Auch Tools zur Erkennung funktionieren nicht fehlerfrei.
Um KI-Fakes trotzdem einordnen zu können, sind deshalb andere Kompetenzen wichtig. Der erste Schritt sollte immer sein, Gesehenes in den Sozialen Netzwerken nicht nur passiv zu konsumieren, sondern kritisch zu hinterfragen – insbesondere dann, wenn der Inhalt stark emotionalisiert. Besonders wenn es um möglicherweise brisante Aussagen von Politikern und Politikerinnen geht, die diese auch vor Kameras gesagt haben sollen, gibt es in vielen Fällen Presseberichterstattung von etablierten Medien dazu. Ein Blick auf den Kanal, der die Behauptung verbreitet, ist häufig aufschlussreich: Accounts, die am laufenden Band Videos zu angeblichen „Eilmeldungen“ veröffentlichen, sollten stutzig machen.
Das European Fact Checking Standards Network hat einen Überblick erstellt, wie man KI-generierte Falschinformationen entlarven kann. Das Informationsmaterial können Sie hier herunterladen.
Redigatur: Paulina Thom, Gabriele Scherndl
Zur Quelle wechseln
Author: Sara Pichireddu