More than "Deep Fake": Draft for "Digital Violence" Law Presented

With three new criminal offenses, civil claims, and a significant expansion, Justice Minister Stefanie Hubig wants to take decisive action digitally.

https://www.heise.de/en/news/More-than-Deep-Fake-Draft-for-Digital-Violence-Law-Presented-11262899.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Datenschutz #Deepfake #DigitalServicesAct #IPAdressen #Netzwerkdurchsetzungsgesetz #Netzpolitik #news

More than "Deep Fake": Draft for "Digital Violence" Law Presented

With three new criminal offenses, civil claims, and a significant expansion, Justice Minister Stefanie Hubig wants to take decisive action digitally.

heise online

Mehr als „Deep Fake“: Entwurf für „Digitale Gewalt“-Gesetz vorgelegt

Mit drei neuen Strafnormen, zivilrechtlichen Ansprüchen und einer deutlichen Ausweitung will Justizministerin Stefanie Hubig digital durchgreifen.

https://www.heise.de/news/Mehr-als-Deep-Fake-Entwurf-fuer-Digitale-Gewalt-Gesetz-vorgelegt-11262842.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Datenschutz #Deepfake #DigitalServicesAct #IPAdressen #Netzwerkdurchsetzungsgesetz #Netzpolitik #news

Mehr als „Deep Fake“: Entwurf für „Digitale Gewalt“-Gesetz vorgelegt

Mit drei neuen Strafnormen, zivilrechtlichen Ansprüchen und einer deutlichen Ausweitung will Justizministerin Stefanie Hubig digital durchgreifen.

heise online
Brussels launched an age checking app. Hackers say it takes 2 minutes to break it.

Cyber experts say they have found holes in Brussels’ age verification app, despite claims by the EU executive that it is “technically ready.”

POLITICO
Identität bleibt geheim: EU-App für Altersnachweis kommt

Kommissionschefin von der Leyen kündigt eine fertige Lösung zur Altersprüfung an, die anonymes Surfen ermöglichen und Plattformen in die Pflicht nehmen soll.

heise online

Schädliche Anreize

EU-Forschungsabteilung: Ein Internet ohne schädliche Anreize ist möglich

Soziale Netzwerke und ihre auf Überwachung und Personalisierung basierenden Geschäftsmodelle schaffen Anreize, die letztlich die Demokratie gefährden. Für die EU ist es höchste Zeit, dem etwas entgegenzusetzen, fordert eine umfassende Studie der Forschungsabteilung der EU-Kommission.

Es ist schon eine Ansage: Die EU sollte in ihrem Streben nach digitaler Souveränität neue Geschäftsmodelle im digitalen Raum entwickeln, die besser mit der Demokratie vereinbar sind. Zu diesem Schluss kommt eine neue Studie der Gemeinsamen Forschungsstelle der EU-Kommission.

Der Titel der englischsprachigen Studie ist so alarmierend wie programmatisch: „Fractured reality – How democracy can win the global struggle over the information space“ (auf Deutsch: „Zersplitterte Realität – Wie die Demokratie den globalen Kampf um den Informationsraum gewinnen kann“). Verfasst haben sie ein Dutzend renommierter Forscher:innen zu dem Thema, darunter die Hauptautoren, der Kognitionspsychologe Stephan Lewandowsky und der Verhaltensforscher Mario Scharfbillig.

Aufmerksamkeitsökonomie unter der Lupe

In der heutigen „Aufmerksamkeitsökonomie“ ist die Zeit und Aufnahmefähigkeit von Menschen begrenzt, schreiben die Autor:innen. Viele Online-Dienste, insbesondere soziale Medien, kämpfen geschickt um das kostbare Gut: Sie haben ihre personalisierten Produkte so gestaltet, dass Nutzer:innen möglichst lange auf ihrem Dienst bleiben. Dann können sie ihnen möglichst viele und passgenaue Werbeanzeigen einblenden.

Dies begünstige „strukturell – wenn auch unbeabsichtigt – Inhalte, die die Demokratie bedrohen, da die menschliche Aufmerksamkeit Informationen bevorzugt, die negativ, emotional und konfliktgeladen sind“, heißt es in der Studie. Zudem würden die Dienste den Weg zu Echokammern ebnen. In diesen würden sich Menschen gegenseitig unwidersprochen ihre Ansichten bestätigen.

Grundsätzlich neu sei dieses Phänomen zwar nicht, jedoch ermögliche Technologie eine zuvor ungekannte Vielfalt und Fragmentierung von Wahrnehmungen der Realität. Dies sei ein Problem: „Demokratische Institutionen und die Demokratie selbst können ohne ein gewisses Maß an gemeinsamer Realität nicht überleben.“

Wenn sich soziale Medien nun zunehmend zu einer wichtigen Informationsquelle entwickeln und sich strukturell bedingt Informationen minderwertiger Qualität schneller verbreiten, öffnet das die Tür für Falschnachrichten, ob unbeabsichtigt (Misinformation) oder bewusst gestreut (Desinformation). Inzwischen habe sich das Phänomen jedoch gewandelt: Es gehe nicht mehr darum, konkrete Behauptungen aufzustellen oder anzufechten, sondern darum, den Informationsraum zu überfluten („flooding the zone“).

Dominanter Fantasie-Industrie-Komplex

Während Informationsmanipulation früher auf „systematischen Lügen“ basierte, setze sich die heutige Situation aus einer Mischung aus Desinformation, Täuschung, irreführenden Informationen und wahren Kernen zusammen. Die Autor:innen beschreiben dies als „Fantasie-Industrie-Komplex“, der sich selbst organisiere und lose koordiniert sei.

Ziel der Informationsmanipulation sei es heute oft nicht, Menschen von bestimmten falschen Behauptungen zu überzeugen, sondern „abzulenken, Misstrauen zu schüren und antidemokratische Normen, autoritäre Instinkte und Verhaltensweisen zu aktivieren“. Dies sei ein systemisches Problem, betonen die Autor:innen. „Einzelpersonen für Fehlinformationen verantwortlich zu machen, verkennt die eigentliche Ursache.“

Mit diesem „Fantasie-Industrie-Komplex“ ist eine der Ko-Autor:innen allzu gut vertraut. Als Studentin hatte die heute an der Georgetown University lehrende Desinformationsforscherin Renée DiResta ein Praktikum beim US-Geheimdienst CIA absolviert. Daraus drehten ihr rechte und rechtsextreme US-Influencer:innen einen Strick: Unter anderem Elon Musk nutzte seinen Einfluss sowie die Tatsache, den Kurznachrichtendienst X zu besitzen, um mit vermeintlichen Enthüllungen über einen „Zensur-Industrie-Komplex“ politisch Stimmung zu machen.

Im Zentrum der Auseinandersetzung fand sich DiResta wieder. In einschlägigen Ecken des Internets als „CIA Renee“ verunglimpft, ging es ihren Widersacher:innen vor allem darum, ihre Glaubwürdigkeit und in weiterer Folge die des Stanford Internet Observatory (SIO) zu beschädigen. Zu dieser Zeit forschte DiResta dort zu Desinformation und landete im Visier von US-Republikanern. Denen gefiel nicht, dass das SIO ihre oft auf Lügen basierende Wahlkampftaktik offenlegte.

Republikaner hacken Forschung kurz und klein

Der konzertierte Angriff auf das SIO und eine Reihe anderer vergleichbarer Institute, der auch aus Anhörungen im republikanischen Repräsentantenhaus bestand, hatte schließlich Erfolg. Verträge wurden nicht verlängert, das Budget gekürzt, im Jahr 2024 machte die Stanford University das SIO ganz dicht – gerade noch rechtzeitig vor den US-Präsidentschaftswahlen im Herbst.

Auf den Druck von rechts reagierten neben US-Universitäten auch einige prominente soziale Netzwerke: Meta kündigte etwa öffentlichkeitswirksam an, zeitgleich zum Amtsantritt Donald Trumps seine Moderationsregeln auf Facebook und Instagram zurückzuschrauben. Im Sommer darauf zog auch YouTube still und heimlich nach. Solange Falschinformationen rund um Themen wie Impfungen, Minderheiten oder Wahlbetrug im „öffentlichen Interesse“ stehen, bleiben sie auf dem größten Video-Streamingportal der Welt unmoderiert stehen.

Vor dieser von der Realität weitgehend losgelösten Entwicklung warnen die Autor:innen der EU-Studie. „Demokratie braucht einen gesunden Informationsraum, der ausreichend genaue und überprüfbare Informationen enthält, eine politische Vielfalt an Meinungen und Stimmen zulässt, breit gefächerte Besitzverhältnisse im Medienbereich umfasst sowie ein geringes Maß an schädlichen Inhalten und Fehlinformationen aufweist, wenn wir ein gewisses Realitätsgefühl erhalten wollen“.

Abkehr von der Aufmerksamkeitsökonomie

Um dem etwas entgegenzusetzen, bringen die Autor:innen konkrete Empfehlungen mit. Zuvorderst müssten wir alternative öffentliche Räume schaffen, sowohl online als auch offline, die nicht von der Aufmerksamkeitsökonomie abhängen. Wir sollten uns auch vom Erfolg crowd-basierter und dezentraler Ansätze wie jenem der Online-Enzyklopädie Wikipedia inspirieren lassen.

Nutzer:innen sollten zugleich mehr Autonomie erhalten, etwa mit einer Verbesserung des Plattformdesigns durch Erkenntnisse aus der Verhaltensforschung. Beispielsweise durch Abkühlphasen – etwas, was der anstehende Digital Fairness Act der EU durchaus auf dem Schirm hat.

Verbesserungsmöglichkeiten macht die Studie auch bei Faktenchecks aus. Selbst wenn diese stattfinden, erreichen sie oft ihr Zielpublikum nicht. Das ließe sich durch angepasste Ausspiel-Mechanismen verändern. Zudem sollten ausgewiesene Verbreiter:innen von Falschinformationen demonetarisiert werden: „Solange Desinformation profitabel ist, wird sie nicht verschwinden“.

Indes weisen die Autor:innen darauf hin, dass keine dieser Maßnahmen ausreiche, wenn keine Alternativen zu den derzeitigen Geschäftsmodellen entstehen, die auf „Engagement“ basierten. Als Alternativen stellen sie unter anderem Abo-Modelle in den Raum, eine Besteuerung digitaler Werbeanzeigen, oder auch Gebühren für Online-Dienste, die besonders viel Falschinformationen verbreiten. Helfen könnten auch Auflagen zu Interoperabilität, mit der Nutzer:innen ihre Daten möglichst einfach von einem Anbieter zu einem anderen mitnehmen und umziehen könnten.

Papiertiger ohne europäische Alternativen

Bleibt aber immer noch das Problem, dass die meisten großen Online-Dienste derzeit nicht aus Europa stammen. Forschungsergebnisse deuten der EU-Studie zufolge darauf hin, dass Algorithmen von Plattformbetreibern zu deren Gunsten instrumentalisiert werden – was sich wohl am deutlichsten an dem zur rechten Propagandaplattform umgebauten Xablesen lässt.

„Die Informationsdiät der Europäer liegt somit in den Händen ausländischer Akteure, die möglicherweise nicht die europäischen demokratischen Werte teilen“, warnen die Autor:innen. Trotz der vorangegangenen Empfehlungen lassen sich diese Werte ohne digitale Souveränität und Autonomie der EU nicht vollständig schützen, schreiben sie.

Dabei dürfe die EU jedoch nicht in offenkundige Fallen tappen, warnt die Studie: „Es besteht derzeit die Gefahr, dass ein verstärktes Streben nach digitaler Souveränität auf Technologieebene die Chance auf einen besseren demokratischen Rahmen verspielt und ähnliche Probleme in Europa wiederholt, insbesondere wenn Geschäftsmodelle nicht mit demokratischen Prinzipien vereinbar sind.“

Mit demokratischen Modellen experimentieren

Um die Stellung der EU im digitalen Raum zu stärken, sollte Europa in dezentrale System wie Atmosphere, Fediverse, Mastodon oder Eurosky investieren und zugleich eine europäische Cloud-Infrastruktur samt ausreichender Rechenkapazität schaffen. Damit ließe sich die Macht ausländischer Unternehmen schwächen, während die alternativen Dienste „demokratische Modelle in Echtzeit“ erforschen könnten. Neben finanzieller Förderung solcher Ansätze könnten etwa Verpflichtungen für öffentliche Einrichtungen und Behörden, die entstehenden Online-Dienste zu nutzen, anstatt auf X und Co. zu verharren, deren Attraktivität steigern.

Darüber hinaus sollte die EU bei der Forschung keine Kompromisse machen. „Das rasante Tempo des Wandels stellt die Forschung vor die Herausforderung, Schritt zu halten und Auswirkungen zu untersuchen, zumal Plattformdaten größtenteils privat bleiben“, heißt es in der Studie. Den im Digital Services Act (DSA) enthaltenen Zugang für die Wissenschaft, der bis heute noch nicht so recht vollständig umgesetzt ist, geht den Autor:innen augenscheinlich nicht weit genug.

Angesichts des Bedarfs an schnellerer Forschung und Evaluierung digitaler Strategien sei ein europäisches „CERN für Daten und Demokratie“ erforderlich, um die in Europa fragmentierten Kapazitäten für die kontinuierliche Plattformforschung im industriellen Maßstab zu bündeln. Trotz ihrer globalen Vorreiterrolle bei der Digitalregulierung sollte sich die EU lieber beeilen: „Ein globaler Innovationswettlauf ohne Berücksichtigung seiner gesellschaftlichen Folgen könnte die Fähigkeit der Gesellschaften überfordern, diese Veränderungen friedlich zu bewältigen.“

Tomas Rudl ist in Wien aufgewachsen, hat dort für diverse Provider gearbeitet und daneben Politikwissenschaft studiert. Seine journalistische Ausbildung erhielt er im Heise-Verlag, wo er für die Mac & i, c’t und Heise Online schrieb. Kontakt: E-Mail (OpenPGP), Bluesky. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Schädliche Anreize – Beueler-Extradienst

EU ID App for Minors: EU Commission Gets Serious About Youth Protection

Commission President von der Leyen announces a ready solution for age verification that will enable anonymous surfing and hold platforms accountable.

https://www.heise.de/en/news/EU-ID-App-for-Minors-EU-Commission-Gets-Serious-About-Youth-Protection-11259516.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Apps #Datenschutz #DigitalServicesAct #EU #Jugendschutz #Netzpolitik #news

EU ID App for Minors: EU Commission Gets Serious About Youth Protection

Commission President von der Leyen announces a ready solution for age verification that will enable anonymous surfing and hold platforms accountable.

heise online

EU-Ausweis-App für Minderjährige: EU-Kommission macht Ernst beim Jugendschutz

Kommissionschefin von der Leyen kündigt eine fertige Lösung zur Altersprüfung an, die anonymes Surfen ermöglichen und Plattformen in die Pflicht nehmen soll.

https://www.heise.de/news/EU-Ausweis-App-fuer-Minderjaehrige-EU-Kommission-macht-Ernst-beim-Jugendschutz-11259317.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Apps #Datenschutz #DigitalServicesAct #EU #Jugendschutz #Netzpolitik #news

Identität bleibt geheim: EU-App für Altersnachweis kommt

Kommissionschefin von der Leyen kündigt eine fertige Lösung zur Altersprüfung an, die anonymes Surfen ermöglichen und Plattformen in die Pflicht nehmen soll.

heise online
EU-App zur Altersüberprüfung: Mini-Wallet – Jugendschutz oder digitale Kontrolle?

EU-App zur Altersüberprüfung startet bald: anonym, Open Source, DSA-konform. Schutz für Kinder oder Einstieg in digitale Kontrolle?

TARNKAPPE.INFO
EU age verification tech is ready, von der Leyen says

The age verification app is seen as a key part of the EU’s efforts to keep kids safe from online harms and mental health risks.

POLITICO

YouTube Denies Downranking While Practicing It

By Cliff Potts, CSO, and Editor-in-Chief of WPS News

Baybay City, Leyte, Philippines — April 12, 2026

Reporting

For years, YouTube has rejected claims that it “shadow bans” content or creators. In public statements and responses to European regulators, the platform maintains that videos are either available or removed, and that reduced reach reflects user choice rather than platform intervention.

EU creators and researchers describe a different pattern.

Videos that remain publicly accessible frequently experience sudden and sustained drops in impressions, recommendations, and search visibility without notice or policy citation. These declines often coincide with topical sensitivity, political relevance, or advertiser concern. Creators receive no formal enforcement notice, no appeal option, and no explanation.

Because the content is not removed, these actions fall outside the procedural safeguards that apply to takedowns. From the user’s perspective, the video exists. From the platform’s perspective, it effectively disappears.

Analysis

Downranking is enforcement without accountability.

By reducing visibility rather than removing content, YouTube avoids triggering disclosure and redress obligations while still shaping information flows. The company’s insistence that recommendation systems merely reflect audience interest obscures the reality that distribution is an editorial decision embedded in code.

This approach is consistent with incentives set at the parent-company level. Google derives revenue from advertiser confidence and risk minimization. Downranking allows the platform to limit exposure to controversial or inconvenient material without attracting public scrutiny.

From a regulatory standpoint, this creates a blind spot. EU frameworks focus heavily on content removal, yet visibility controls can have equal or greater impact on public discourse. A video that cannot be found, recommended, or surfaced may as well not exist.

What Remains Unclear

YouTube does not disclose when or why content is downranked within the EU. It does not provide creators with visibility metrics tied to policy triggers, nor does it allow independent auditors to assess how recommendation changes affect reach over time.

Without transparency, it is impossible to distinguish between organic audience behavior and deliberate suppression.

Why This Matters

If platforms can quietly reduce the reach of lawful content without notice, explanation, or appeal, then formal safeguards offer limited protection. Enforcement shifts from visible actions to invisible controls.

For EU regulators, the question is not whether YouTube uses the term “shadow banning.” It is whether undisclosed visibility restrictions are compatible with the Union’s goals of transparency, accountability, and equal treatment.

As long as downranking remains unacknowledged and unregulated, a significant portion of platform power operates outside effective oversight.

References (APA)

European Commission. (2024). Digital Services Act: Systemic risk mitigation and recommender systems.
AlgorithmWatch. (2023). Auditing platform recommendation and ranking practices.
Gillespie, T. (2020). Content moderation, AI, and hidden governance. Social Media + Society.

#algorithms #DigitalServicesAct #downranking #Google #platformAccountability #YouTube