Drücken Sie „Enter“, um den Inhalte zu überspringen

Mozilla-Studie: Werkzeuge gegen die Deepfake-Flut

Dieser Artikel stammt von Netzpolitik.org.

Eine Studie der Mozilla Foundation geht der Frage nach, wie sich KI-generierte Inhalte kennzeichnen lassen. Eine einfache Lösung sehen die Forschenden nicht. Vielmehr brauche es einen breiten Lösungsansatz.

Eine weiße Wand, an der zahlreiche Werkzeuge hängen
Gegen die Deepfake-Flut braucht es viele Werkzeuge – Gemeinfrei-ähnlich freigegeben durch unsplash.com Lachlan Donald

Polizisten verhaften Donald Trump, das Pentagon wird Ziel eines Bombenangriffs und US-Präsident Joe Biden ruft dazu auf, nicht zur Wahl zu gehen. Sogenannte Deepfakes nehmen zu. Und gerade im globalen Superwahljahr 2024 drohen sie erheblichen Einfluss auf die Politik zu nehmen.

Deepfakes sind realistisch erscheinende Foto-, Ton- und Videodokumente, die mit Hilfe sogenannter Künstlicher Intelligenz erzeugt werden. Die Resultate sind inzwischen so gut, dass sie sich kaum noch als solche erkennen lassen. Und sie lassen sich relativ einfach in großer Zahl herstellen. Wie rasant die technologische Entwicklung voranschreitet, veranschaulicht eindrucksvoll der neue Dienst Sora von OpenAI. Er erlaubt es, realistisch aussehende Videos innerhalb weniger Minuten durch Texteingabe zu erzeugen.

Die neuen Verfahren stellen die Politik, Medien und Nutzer:innen vor die Frage, wie sich authentische Inhalte von künstlich generierten noch unterscheiden lassen. In der Studie mit dem Titel „In Transparency We Trust?“ suchen Ramak Molavi Vasse’i und Co-Autor Gabriel Udoh im Auftrag der Mozilla Foundation nach Antworten. Molavi leitete das „Meaningful AI Transparency Research Project“ bei der Mozilla Foundation, Udoh beschäftigt sich als Jurist unter anderem mit Fragen der KI-Regulierung.

Es gibt kein Allheilmittel

In ihrer Studie kommen die beiden Forschenden zu dem Schluss, dass es kein Allheilmittel gegen die drohende Flut von KI-generierten Inhalten gibt. Darunter verstehen sie Daten oder Informationen, die in unterschiedlichem Grad „algorithmisch generiert werden und nicht auf realen Beobachtungen oder Erfahrungen beruhen“.

Grundsätzlich lassen sich diese Inhalte auf zweierlei Art markieren: zum einen mit deutlich erkennbaren Kennzeichnungen, zum anderen durch unsichtbare Wasserzeichen. Mit Hilfe eines „Fitness-Checks“ bewerten Molavi und Udoh, wie nützlich die jeweiligen Techniken sind.

Die deutlich erkennbaren Kennzeichnungen haben aus ihrer Sicht den Nachteil, dass Nutzer:innen diese – vergleichbar mit Nährwertkennzeichnungen bei Lebensmitteln –  erst einmal wahrnehmen und einordnen müssen. Außerdem lassen sich sichtbare Hinweise relativ leicht manipulieren oder gar entfernen. Unter anderem die Coalition for Content Provenance and Authenticity (C2PA) bietet eine solche Kennzeichnung an. Der Gruppe gehören neben Adobe auch Microsoft, Nikon, Leica und der französische Werbedienstleister Publicis Groupe an.

Positiver bewerten die Forschenden unsichtbare maschinenlesbare Wasserzeichen. Sie hätten den Vorteil, dass sie in die Medieninhalte eingebettet sind. Damit sei es aufwändiger, sie zu verändern oder zu entfernen. Allerdings hänge der Erfolg dieser Kennzeichnungen „in hohem Maße davon ab, dass es qualitativ robuste, unvoreingenommene und zuverlässige Erkennungsmechanismen“ gebe. Unter anderem Alphabets Tochterfirma Deepmind nutzt für seinen Bildgenerator Wasserzeichen, die für das menschliche Auge unsichtbar sind.

Mit Wasserzeichen gegen die babylonische Verwirrung

Es braucht einen vielschichtigen Ansatz

Doch selbst wenn Kennzeichnungen gut funktionierten, reichen sie aus Sicht der Forschenden nicht aus, um der drohenden Deepfake-Flut zu begegnen. Stattdessen brauche es einen vielschichtigen Ansatz, der technologische, regulatorische und bildungspolitische Maßnahmen miteinander kombiniert.

Konkret schlagen Molavi und Udoh vor, unsichtbare maschinenlesbare Wasserzeichen zu nutzen. Darüber hinaus plädieren sie für die Entwicklung von „Slow AI“. In Anlehnung an Slow Tech müsse eine Regulierung sicherstellen, dass KI-Technologie fair und sicher sei. Außerdem müssten Unternehmen, die KI-Produkte herstellen und anbieten, ihrer rechtlichen und ethischen Verantwortung gerecht werden.

Desweiteren sollten die Nutzer:innen über die Auswirkungen von KI-Technologie aufgeklärt werden. Viele verstünden noch nicht, welche Folgen künstlich generierte Inhalte haben könnten, selbst wenn diese entsprechend gekennzeichnet sind. „Aufklärung ist der Schlüssel dafür, die Widerstandsfähigkeit der Bürgerinnen und Bürger zu stärken“, betont die Studie. „Und sie ergänzt eine wirksame Regulierung, anstatt sie zu ersetzen.“

Neue Technologien und Regulierungsmaßnahmen sollten außerdem vor ihrem Einsatz getestet werden. Molavi und Udoh plädieren für sogenannte Regulatory Sandboxes. In isolierten Testräumen ließen sich technologische Entwicklungen und rechtliche Maßnahmen vor ihrer Einführung erproben und verfeinern. Etwas Ähnliches fordert auch das EU-Parlament mit Blick auf die KI-Verordnung der EU. Bei den Testläufen sei es wichtig, so betonen die Forschenden, nicht nur die Anbieter von KI-Software, sondern auch die Zivilgesellschaft einzubinden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Daniel Leisegang

Die s bahnen im kölner norden müssen zuverlässig fahren !. Sebastianus & afra köln 2012 e.