Wie künstliche Videos Social Media fluten

Studie zu “AI Slop”

Eine neue Studie zeigt: TikTok und Instagram kennzeichnen KI-generierte Inhalte nur unzureichend – und gerade TikTok wird von bizarren synthetischen Videos dominiert. Die Plattformen verstoßen damit gegen EU-Vorgaben und sorgen für eine Flut von automatisierter Desinformation.

TikTok und Instagram kommen ihren Pflichten zur Kennzeichnung von KI-generierten Videos nicht ausreichend nach. Auf TikTok dominieren zudem synthetische KI-Videos die Suchergebnisse zu populären Hashtags. Zu diesem Schluss kommt die europäische gemeinnützige Organisation AI Forensics in einer neuen Studie zur Verbreitung von KI-generierten Inhalten auf den beiden Plattformen.

Die Studie untersucht sogenannten AI Slop. Gemeint sind damit massenproduzierte, KI-generierte Inhalte, die „bizarr und sinnlos“ wirken durch ihre Kombination aus fotorealistischem Stil und unrealistischem Inhalt. AI Forensics hat analysiert, wie viele der Suchergebnissen zu den 13 populärsten Hashtags auf TikTok und Instagram AI Slop sind. Dazu betrachteten die Forscher*innen Suchergebnisse zu #Trump, #History oder #Pope mit einem geografischen Fokus auf Deutschland, Spanien und Polen.

Das Ergebnis: Sucht man nach diesen Hashtags auf TikTok, so seien von den obersten 30 Suchergebnissen 25 Prozent AI Slop. Auf Instagram ist die Anzahl deutlich geringer mit nur zwei Prozent. Von den KI-generierten Videos sind rund 80 Prozent fotorealistisch, das heißt sie sehen aus wie echte Videos. Dadurch würden sie noch trügerischer wirken.

Nicht nur Unterhaltung

Als Beispiel für AI Slop führt AI Forensics Shrimp Jesus an, eine Mischung aus Meerestieren und Jesus, die vergangenes Jahr in den Feeds von Facebook-Nutzer*innen für Irritation sorgte. Zugleich habe AI Slop auch desinformative Elemente. So identifizieren die Forscher*innen eine Kategorie von AI Slop, die sie „synthetischen Bürger-Journalismus“ nennen. Gemeint sind etwa Videos von Explosionen, die wie Amateur-Clips aussehen, aber ebenfalls generiert sind.

Ähnlich irreführend würden KI-generierte Straßeninterviews wirken, die einen vermeintlichen Regierungssturz in Iran kommentieren. Auch Videos von Politiker*innen mit falschen Aussagen hat AI Forensics laut der Studie gefunden.

Kennzeichnung reicht nicht aus

Um diesem trügerischen Effekt entgegenzuwirken, schreibt die KI-Verordnung (AI Act) der Europäischen Union Plattformen in solchen Fällen eigentlich Transparenz vor: Sie müssen KI-generierte Inhalte kennzeichnen. Dabei stützt sich die KI-Verordnung auf das Gesetz über Digitale Dienste (Digital Services Act), das vorschreibt, dass große Plattformen gegen gesellschaftliche Risiken vorgehen müssen. AI Forensics weist darauf hin, dass auch die Kennzeichnung von KI-generierten Videos dazu zähle.

Sowohl TikTok als auch Instagram kämen der Kennzeichnungspflicht nicht nach, so die Studie. TikTok gibt die Verantwortung zur Kennzeichnung von KI-generierten Inhalten an Nutzer*innen weiter und verpflichtet dazu in ihren Guidelines. Das sei nicht verlässlich genug und auch die automatisierte KI-Erkennung funktioniere nicht lückenlos, so AI Forensics.

Von den als AI Slop identifizierten Videos auf TikTok war demnach nur rund die Hälfte als KI-generiert gekennzeichnet. Auf Instagram war es noch weniger mit 23 Prozent, obwohl auch Instagram Nutzer*innen zur Kennzeichnung verpflichtet und eine automatisierte KI-Erkennung einsetzt.

Zudem seien die Kennzeichnungen schlecht sichtbar gewesen: Auf TikTok wurden sie in einer langen Liste aus Hashtags versteckt und in der Instagram-Desktop-Version wurden sie gar nicht angezeigt. netzpolitik.org hat die Kennzeichnungen überprüft und kommt zum gleichen Ergebnis.

Verbreitung läuft automatisiert

Hinter der Verbreitung des AI Slops würden fast vollständig automatisierte Accounts stecken, so AI Forensics. 80 Prozent des AI Slops auf TikTok wurde demnach von Profilen hochgeladen, die generative KI-Werkzeuge einsetzten „für automatisierte Inhaltserstellung und schnelles, repetitives Testen von Plattformalgorithmen und Publikumsinteressen“. Diese Massenproduktion von Inhalten ziele darauf ab, Algorithmen auszuspielen und die Chancen für Videos mit einer hohen Reichweite zu erhöhen. AI Forensics sagt voraus, dass dieser Prozess mit der Hilfe von KI-Agenten vollständig automatisiert werden könne.

Die Studie fordert Plattformen auf, diese Art von automatisierten Accounts zu regulieren, um eine weitere Eskalationen und „Manipulationskampagnen“ zu verhindern. Auch sollen Plattformen sich an ihre Verpflichtungen zur Kennzeichnung von KI-generierten Inhalten halten und eigene Regelungen stärker durchsetzen.

Karoline Tanck ist von Juli bis September 2025 Praktikantin bei netzpolitik.org. Sie hat Digital Media und Soziale Medien und Informationssysteme an der Leuphana Universität Lüneburg studiert. Karoline interessiert sich besonders für digitale Gewalt, den Rechtsruck und die sogenannte Künstliche Intelligenz. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Wie künstliche Videos Social Media fluten – Beueler-Extradienst

The Conversation: Forensics tool ‘reanimates’ the ‘brains’ of AIs that fail in order to understand what went wrong. “We are computer scientists who study digital forensics. Our team at the Georgia Institute of Technology has built a system, AI Psychiatry, or AIP, that can recreate the scenario in which an AI failed in order to determine what went wrong. The system addresses the […]

https://rbfirehose.com/2025/05/02/the-conversation-forensics-tool-reanimates-the-brains-of-ais-that-fail-in-order-to-understand-what-went-wrong/

The Conversation: Forensics tool ‘reanimates’ the ‘brains’ of AIs that fail in order to understand what went wrong | ResearchBuzz: Firehose

ResearchBuzz: Firehose | Individual posts from ResearchBuzz

#FreeOur Feeds is overseen by these nine: #NabihaSyed, executive director at #Mozilla Foundation; #RobinBerjon, independent technologist; #MarkSurman, president at Mozilla Foundation; #MalloryKnodel, executive director at #SocialWebFoundation; #EliPariser, co-founder of #Avaaz; #PhilBeaudoin, entrepreneur; #MarcFaddoul, co-founder of #AIForensics; #DeeptiDoshi, co-director at #New_ Public; and #SherifElsayedAli, executive director at #FutureofTechnologyInstitute.

And the group arrives with endorsements from a set of celebrities, academics, entrepreneurs, politicians, journalists, and activists, including Wikipedia founder Jimmy Wales, Harvard Business School Professor Emerita Shoshana Zuboff, Incredible Hulk actor Mark Ruffalo, and activist and author Cory Doctorow.”

So this is the kind of grab bag technology Mozilla is backing to “secure the Internet” while slurping user data?

<https://www.theregister.com/2025/01/14/free_our_feeds_decentralized_social_media/>

Hulk smash Musk and Zuck! Actor Mark Ruffalo and non-billionaire pals back network tech underpinning Bluesky

Free Our Feeds solicits funds to foster AT Protocol that powers decentralized social media

The Register

#Facebook Is #Censoring #404Media Stories About Facebook's #Censorship

“Our findings suggest that although Meta has the tech to automatically detect #pornographic content, it does not apply it to enforce its community standards on #ads as it does for non-sponsored content,” #AIForensics said in its report. “This double standard is not a temp bug, but persisted since as early as, at least, Dec 2023.”

https://www.404media.co/facebook-is-censoring-404-media-stories-about-facebooks-censorship/

Facebook Is Censoring 404 Media Stories About Facebook's Censorship

Instagram, Facebook, and Threads are removing 404 Media stories for “nudity” as the company is paid to put ads with explicit pornography in front of its users.

404 Media

🔍 Exposing the Hidden Algorithms Shaping Our Lives

Meet AI Forensics, a European non-profit dedicated to uncovering the algorithms that influence our online experiences. In a recent interview, Katya Viadziorchyk, reveals how AI Forensics uses open-source tools to investigate tech giants and ensure algorithmic accountability.

Discover how they are safeguarding digital transparency ➡️ https://ngi.eu/news/2024/09/03/digital-detectives-ai-forensics-quest-for-algorithmic-accountability/

#AIForensics #AlgorithmicAccountability #DigitalTransparency #OpenSource

Digital detectives: AI Forensics quest for algorithmic accountability

We are delighted to announce the release of the comprehensive study report, "Benchmarking the Impact of the Next Generation Internet Initiative."

Next Generation Internet

🎉 The folks at @algorithmwatch and #AIforensics have made a formal data access request to the 🇩🇪 #DSC #Bundesnetzagentur under the new #DigitalServicesAct.

They seek to obtain #research access to internal #Microsoft data to check whether and how the company is making sure its not-so-intelligent #AI #Copilot isn't bullshitting around in dangerous ways.

Kudos to @olivermarsh and #ClaraHelming for leading this work!

https://algorithmwatch.org/en/dsa-platform-data-request-2024/
#DSA #transparency #bigtech #digitalrights #eupolicy

AlgorithmWatch and AI Forensics among the first organizations to request platform data under the DSA - AlgorithmWatch

Berlin, 15 February 2024. The EU’s Digital Services Act (DSA) is designed to give citizens new powers to protect their rights online. Today, many of its most impactful provisions are supposed to come into force: notably the creation of a Digital Services Coordinator (DSC) in every EU Member State and new opportunities for researchers to access platform data.

AlgorithmWatch
Das große #KI-Sprachmodelle unseren Meinungsbildungsprozess beeinflussen, ist ja nichts Neues. Dass sie Wahlen beeinflussen können, haben #algorithmwatch & #aiforensics vor den Landtagswahlen in Hessen und Bayern sowie den Eidgenössischen Wahlen in der Schweiz herausgearbeitet. https://algorithmwatch.org/de/bing-chat-wahlen-2023/
ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen? - AlgorithmWatch

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

AlgorithmWatch

Eine erschütternde Studie von @algorithmwatch ⁩ & #AIForensics zu den #Landtagswahlen in #Bayern & #Hessen: „Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend.“
#DSA #DSC

https://algorithmwatch.org/de/bing-chat-wahlen-2023/

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen? - AlgorithmWatch

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

AlgorithmWatch