Langweiliger werden

Breakpoint: Soziale Medien müssen langweiliger werden

Große Techkonzerne investieren Milliarden, um uns so lange wie möglich auf ihren Plattformen zu halten. Mit Erfolg: Viele von uns verbringen nahezu ein Viertel ihrer Lebenszeit online. Damit bringen wir den Betreibern ordentlich Geld ein – ob wir das wollen oder nicht. Ändern soll das ein neues EU-Gesetz.

Es lässt mich nicht los, dieses kleine, viereckige Gerät. Das eine Ding, das ich immer bei mir trage, selbst wenn ich nur vom Schlafzimmer in die Küche laufe. In der Bahn, in Pausen, beim Warten an der Ampel, vorm Einschlafen, direkt nach dem Aufwachen: In jeder freien Sekunde geht mein erster Griff zum Smartphone. Selbst wenn ich Besseres zu tun hätte und selbst wenn mich der Inhalt eigentlich gar nicht interessiert oder ich vom Scrollen schon längst Kopfschmerzen habe. Auch dann, wenn ich eigentlich nicht frei habe. Wenn ich – so wie jetzt gerade – eine Hausarbeit für die Uni schreiben sollte oder eine Kolumne abgeben muss.

Meine durchschnittliche tägliche Bildschirmzeit auf Instagram beträgt zwei Stunden. Zwei Stunden jeden Tag. Auf ein Jahr hochgerechnet sind das 730 Stunden, die ich mit einer einzigen App verbracht habe. In dieser Zeit hätte ich im vergangenen Jahr eine Sprache lernen oder ein gesamtes zusätzliches Studiensemester im Umfang von 30 ECTS abschließen können. Ganz abgesehen von der Zeit, die ich auf WhatsApp, beim Surfen oder mit Serien verbringe. Mir ist das seit Jahren bewusst. Und trotzdem ändert sich nichts. Das ist kein persönliches Versagen. Es ist Systemdesign.

Laut einer Studie aus dem Jahr 2025 verbringen deutsche Jugendliche zwischen 12 und 19 Jahren im Schnitt über 200 Minuten täglich im Netz. Das entspricht einem Teilzeitjob. 68 Prozent der Befragten stimmen der Aussage zu: „Es kommt oft vor, dass ich mich vergesse und viel mehr Zeit am Handy verbringe, als ich geplant hatte.“ Das ist kein Charakterproblem. Das ist das Ergebnis von Milliarden Euro, die in Systeme investiert wurden, um genau das zu erreichen.

By Design

Soziale Medien sind längst nicht nur Unterhaltungsmedien. Sie sind Aufmerksamkeitsmaschinen. Ihr Geschäftsmodell basiert nicht auf guten Inhalten, die produzieren sie nicht einmal selbst. Und wenn wir ehrlich sind, ist der meiste Content in Sozialen Medien weder besonders unterhaltsam noch bereichernd.

Das Geschäftsmodell basiert darauf, menschliche Aufmerksamkeit zu binden, zu messen und in Werbeeinnahmen zu verwandeln. Je länger wir scrollen, desto wertvoller sind wir als Nutzer. Unsere Zeit ist das Produkt.

Die Mechanismen sind gut dokumentiert: Plattformen wie Meta und ByteDance setzen auf denselben neurobiologischen Mechanismus wie Spielautomaten: den variablen Verstärkungsplan. Das Gehirn schüttet Dopamin nicht aus, wenn es eine Belohnung erhält, sondern während es eine erwartet. Es ist das Vielleicht, das süchtig macht. Vielleicht unterhält mich der nächste Clip besser als der davor.

Dazu kommen Endlosscrolling ohne natürliche Pause, Push-Benachrichtigungen im Sekundentakt, Empfehlungssysteme, die nicht das Interessanteste zeigen, sondern das, was uns emotional am stärksten aktiviert. Der Schließen-Button kleiner und grauer als der Weiter-Button. Die Datenschutzeinstellungen hinter drei Menüs versteckt. Die Kündigung, die nach jeder Menge Kleingedrucktem den Account nur für dreißig Tage stilllegt.

All das zusammen ergibt eine Architektur, in der Freiheit simuliert wird – du kannst ja jederzeit aufhören – aber strukturell verhindert. Wer hier „zu viel“ Zeit verbringt, hat nicht versagt. Er hat sich einem System ergeben, das dafür optimiert wurde, ihn auf der Plattform zu halten. Und das es gleichzeitig schafft, uns all das als emanzipatorisch zu verkaufen.

Soft Power reicht nicht aus

Auf solche Probleme antworten Entscheidungsträger gerne mit weichen Steuerungselementen: etwa mehr Medienkompetenz in der Schule. Das ist nicht falsch. Aber es ist unzureichend – selbst wenn dieser Forderung endlich einmal ernsthaft nachgegangen würde. Es wäre so, als würde man einem rauchenden Jugendlichen sagen, er solle mehr Willenskraft aufbringen, anstatt Tabakwerbung zu regulieren und Zigarettenhersteller zur Verantwortung zu ziehen.

Das strukturelle Problem ist eine fundamentale Machtasymmetrie: Auf der einen Seite Unternehmen mit Milliardenumsätzen und Tausenden Mitarbeitern, die sich rund um die Uhr mit einer Frage beschäftigen: Wie halten wir Menschen möglichst lange auf der Plattform? Und auf der anderen Seite Nutzer, die – selbst wenn sie wissen, wie ihnen da eigentlich geschieht – nahezu keine Möglichkeit haben, sich davor zu schützen und gleichzeitig weiterhin große Online-Plattformen zu nutzen.

Brüssel will mehr digitalen Verbraucherschutz

Nach Jahren der Diskussion plant die EU-Kommission den Digital Fairness Act (DFA); ein Gesetz, das das digitale Verbraucherrecht grundlegend neugestalten soll. Grundlage ist eine Erhebung aus dem Oktober 2024, deren Befund ernüchternd ausfiel: Die bestehenden EU-Verbraucherschutzgesetze taugen für das digitale Zeitalter nicht. Verbraucher werden durch manipulative Online-Praktiken zu Vertragsabschlüssen verleitet, die sie sonst nicht getätigt hätten.

Der DFA soll nach aktueller Beschreibung seitens des EU-Parlaments unter anderem vier Kernprobleme regulieren: Dark Patterns, suchterzeugendes Design, Influencer-Marketing und die unlautere Personalisierung durch die Plattformbetreiber selbst.

Kein Wunder, dass die Plattformen dagegen Sturm laufen. TikTok erklärte in der Konsultation zum geplanten Gesetz, es bestehe nur sehr begrenzter Bedarf an zusätzlicher Regulierung. ByteDance, Meta, Google: Sie alle wissen, was auf dem Spiel steht. Weniger manipulatives Design bedeutet weniger Verweildauer, weniger Werbeeinnahmen.

Die EU hat mit DSA, DMA und AI Act bereits ambitionierte Digitalgesetze verabschiedet. Diese Regelwerke haben eine gemeinsame Leerstelle: Sie regulieren Inhalte und Marktmacht, nicht das Design der Plattformen. Der DFA soll genau diese Lücke schließen. Entscheidend wird – wie so oft – die Durchsetzung des Acts sein. Die EU hat eine unrühmliche Geschichte, ambitionierte Gesetze zu verabschieden und sie anschließend unzureichend durchzusetzen.

„Langweiliger“, aber freier

Ich will keine App-freie Welt. Keine vordigitale Idylle, wie sie so mancher Kulturpessimist allzu gerne zeichnet. Was ich will, ist die tatsächliche Freiheit, darüber zu entscheiden, wie ich meine Zeit verbringe. Eine App-Architektur, die mich nicht gegen mich selbst ausspielt.

Soziale Medien müssen langweiliger werden. Nicht im Sinne schlechterer Inhalte – die sind ohnehin meist beliebig. Sondern im Sinne eines Designs ohne psychologische Fallen. Das zu ermöglichen, ist eine politische Entscheidung. Und es wird Zeit, dass diese Entscheidung zugunsten der Verbraucher in Brüssel getroffen wird.

Carla Siepmann schreibt seit 2022 frei für netzpolitik.org. Sie interessiert sich für Gewalt im Netz, Soziale Medien und digitalen Jugendschutz. Seit 2023 erscheint ihre monatliche Kolumne auf netzpolitik.org. Kontakt: [email protected], @CarlaSiepmann. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Langweiliger werden – Beueler-Extradienst

Kinderdaten in Gefahr

Alterskontrollen und Social-Media-Verbot: Elternverbände sehen Daten von Kindern in Gefahr

CDU und Teile der SPD fordern Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen.

Kinder sollen keine sozialen Medien mehr nutzen dürfen, und alle sollen dafür im Netz ihr Alter nachweisen. Das sind die Pläne der Kanzlerpartei CDU und wichtiger Politiker*innen der SPD Bei vielen Elternverbänden in Deutschland stößt das Vorhaben auf Kritik.

„Ein pauschales Social-Media-Verbot ohne begleitende Maßnahmen findet keine breite Unterstützung“, schreibt der Bundeselternrat mit Blick auf seine Landesverbände. Ein generelles Verbot „könnte Kinder eher isolieren als schützen“, warnt das Bundeselternnetzwerk, der Dachverband migrantischer Elternvereine, auf Anfrage von netzpolitik.org.

Durch die Bank äußern Eltern-Organisationen Bedenken beim Schutz sensibler Daten von Erwachsenen und Minderjährigen. Denn ein Social-Media-Verbot, wie es viele derzeit fordern, soll mit strengen Alterskontrollen einhergehen. Ältere Menschen könnten sich etwa per Ausweis prüfen lassen; Kinder ihr Gesicht vor die Handykamera halten. Die Elternvertretung Thüringen zum Beispiel lehnt die biometrische Erfassung von Kindern „ausdrücklich“ ab.

Zwei Organisationen fordern freiwillige Alterskontrollen. Das entspricht allerdings nicht dem australischen Modell, das deutsche und europäische Politiker*innen nachahmen möchten. Kontrollen beugen müssen sich demnach alle, auch die Erwachsenen. In Australien können Plattformen das Verhalten ihrer Nutzer*innen zunächst im Hintergrund mithilfe von Software prüfen. Sobald sich der Verdacht erhärtet, eine Person könnte zu jung sein, muss sie ihr Alter nachweisen.

Wie genau Alterskontrollen in Deutschland aussehen könnten, ist noch offen. Mindestens drei Szenarien sind wahrscheinlich:

  • Erstens könnten Erwachsene und Jugendliche ab 16 Jahren ihr Alter per Ausweis-App bestätigen. Unter anderem der SPD-Vorschlag sieht dafür die für alle EU-Bürger*innen geplante digitale Brieftasche (EUDI-Wallet) vor, die in Deutschland Anfang 2027kommen soll.
  • Zweitens könnten Menschen ihr Gesicht biometrisch scannen lassen; dann soll eine oftmals als „KI“ bezeichnete Software das Alter schätzen. So etwas gibt es schon heute für Pornoseiten.
  • Schließlich könnten sich Erwachsene selbst bei einer Plattformen anmelden, dort ihr Alter verifizieren, und dann Minderjährigen Kindern einen Account freischalten.

Hier erklären wir genau, was die geplanten Alterskontrollen für Eltern bedeuten können.

Für diesen Artikel hat netzpolitik.org Elternverbände auf Bundes- und Landesebene um ihre Einschätzung zu Alterskontrollen und Social-Media-Verbot gebeten. Ihre Antworten ergänzen die vielfältigen Reaktionen aus Zivilgesellschaft, Wissenschaft und Kirche.

Bundeselternrat: Biometrie bei Kindern „besonders kritisch“

Der Bundeselternrat vertritt als Dachverband die teilnehmenden Elternverbände der Bundesländer. Diese Verbände engagieren sich auf Basis der Schulgesetze in der Schulpolitik. Nach einer internen Umfrage zieht der Dachverband ein ambivalentes Fazit. „Viele können sich strengere Altersregelungen grundsätzlich vorstellen – allerdings nur in Verbindung mit verbindlicher Medienbildung, wirksamer Prävention und klarer Verantwortung der Plattformanbieter.“

Wenn es um die praktische Umsetzung eines Social-Media-Verbots geht, äußert sich der Bundeselternrat skeptisch. Die geforderten Alterskontrollen werfen „Fragen zu Datenschutz, Datensicherheit und Verhältnismäßigkeit auf“, so der Dachverband. „Viele Eltern sehen es kritisch, wenn für alltägliche Online-Aktivitäten sensible Daten oder biometrische Verfahren erforderlich werden.“

Biometrische Verfahren bei Kindern würden viele Eltern sogar „besonders kritisch“ sehen. Ansätze, bei denen Eltern selbst einen Account anlegen, um einen Kinder-Account freizuschalten, müssten praktikabel und niedrigschwellig sein.

Bundeselternnetzwerk: „Alterskontrollen möglichst freiwillig“

Der Verein „Bundeselternnetzwerk der Migrantenorganisationen für Bildung & Teilhabe“, kurz bbt, versteht sich als Stimme migrantischer Eltern und Familien in Deutschland. Auf Anfrage erklärt Geschäftsführerin Anja Treichel, digitale Räume „dienen der Verbindung zu transnationalen Familien, zur Pflege von Sprache und Identität und zum Kontakt mit Freundeskreisen“. Ein generelles Social-Media-Verbot für Minderjährige würde das ignorieren. Es könnte „Kinder eher isolieren als schützen“, warnt sie.

Gegen Risiken im Netz brauche es Treichel zufolge „bessere Prävention von digitalem Mobbing, niedrigschwellige Meldewege für Diskriminierung“ sowie Unterstützung für Eltern, die sprachlichen Barrieren gegenüberstehen. Alterskontrollen sieht der Verein kritisch. Treichel erklärt:

Viele Familien – insbesondere solche mit Flucht- oder Migrationserfahrungen und solche, die in Diktaturen/ autoritären Regimen aufgewachsen sind – sind sensibel gegenüber staatlicher oder kommerzieller Datenerfassung. Biometrische Verfahren können Vertrauen in digitale Angebote untergraben. Alterskontrollen sollten daher möglichst datensparsam und freiwillig gestaltet sein.

Kontrollen auf Basis von Ausweisen könnten bestimmte Gruppen benachteiligen, schreibt sie weiter. „Menschen ohne sicheren Aufenthaltsstatus sind hier generell in Gefahr, ausgeschlossen zu werden.“

Außerdem kritisiert der Verein das Modell, dass Eltern sich zunächst selbst auf einer Plattform anmelden, um dann einen Account für ihre Kinder freizuschalten. Das setze voraus, „dass Eltern Zeit, digitale Kompetenz und Sprachkenntnisse haben“. Die beste Voraussetzung für gesunden Medienkonsum sei es, „wenn die Kinder den Eltern ihre Sorgen und Ängste anvertrauen und ihre Freuden mit ihnen teilen können“.

Deutscher Familienverband: „Bedenken“ bei Datenschutz

Der gemeinnützige Deutsche Familienverband befürwortet eine Social-Media-Regulierung für Kinder unter 14 Jahren, erklärt Geschäftsführer Sebastian Heimann auf Anfrage. Als Risiken nennt er „Cybermobbing, Suchtverhalten und unangemessene Inhalte“.

Bei Alterskontrollen mit digitalen Ausweisverfahren allerdings bestünden „Bedenken hinsichtlich Datenschutz und der Nutzung sensibler persönlicher Daten durch private Anbieter“. Das müsse „anhand der geltenden Gesetzeslage adressiert werden“, schreibt Heimamn.

Müssten Menschen ab 16 Jahren ihr Alter per Ausweis-App nachweisen, wäre das „akzeptabel“. Auf biometrische Scans per KI geht Heimann nicht ausdrücklich ein. Sollten Eltern ihren Kindern einen Account freischalten, könne das nur funktionieren, „wenn die Prozesse einfach und datenschutzfreundlich gestaltet sind“.

NRW: Verbot „zwingend“ durch Bildungsoffensive begleiten

Die Landeselternkonferenz Nordrhein-Westfalen vertritt die Eltern aus Deutschlands bevölkerungsreichstem Bundesland. Soziale Medien erst ab 14 Jahren zu erlauben ist ein „notwendiger Schritt zum Schutz der psychischen Gesundheit junger Menschen“, schreiben Torsten Hemkemeier und Hinrich Pich aus dem Vorstand auf Anfrage. Sie verweisen auf Risiken wie „Algorithmen, Suchtpotenziale und Cybermobbing“. Den Zuspruch knüpft die Elternkonferenz jedoch an zwei Bedingungen.

Erstens brauche es „technische Lösungen, die lediglich das Alter verifizieren, ohne personenbezogene Daten an die Konzerne zu übermitteln oder die Datenhoheit der Bürger zu gefährden“. Eine direkte Anmeldung per Ausweis bei Anbietern wie TikTok oder Meta würde „die Anonymität im Netz zerstören“, so Hemkemeier und Pich. Beim Austausch zu sensiblen Themen „wie Krankheiten, Schwangerschaften oder schulischen Problemen“ müsse Anonymität gewahrt bleiben. In der Vergangenheit seien soziale Netzwerk mehrfach Ziel erfolgreicher Hackerangriffe geworden, „bei denen Millionen von Nutzerdaten entwendet wurden“.

Zweitens müsse ein Social-Media-Verbot „zwingend durch eine massive Bildungsoffensive in den Schulen begleitet werden“, weil Sperren „niemals lückenlos sein werden“. Lehrer*innen seien bereits stark belastet. Deshalb fordert der Verband Geld „für externes Fachpersonal, dass die Medienkunde professionell in den Schulalltag integriert“. Die Kosten für diese Art der Prävention seien „weitaus geringer als die gesellschaftlichen und medizinischen Folgekosten“ von Cybermobbing oder Mediensucht.

Bayern: „Kein generelles Verbot“

Der Bayerische Elternverband (BEV) vertritt die Eltern aus Bayern, dem nach Einwohner*innen zweitgrößten deutschen Bundesland. Die Forderung des Verbands: „Kein generelles Verbot sozialer Medien“. Ein solches Verbot würde digitale Teilhabe von Kindern und Jugendlichen einschränken, nicht aber das Kernproblem lösen, erklärt BEV-Vorstandsmitglied Gundolf Kiefer. Neben seiner Tätigkeit im BEV ist er Professor für Informatik an der Technischen Hochschule Augsburg. Kiefer schreibt:

Das eigentliche Problem ist nicht der soziale Austausch Jugendlicher über das Internet, sondern es sind die Geschäftsmodelle der großen kommerziellen Plattformen: Algorithmen, die gezielt auf Engagement durch Empörung und Eskalation optimiert sind, auf möglichst langen Verbleib auf der Plattform, kombiniert mit zielgerichteter Werbung und umfassender Datenerfassung.

Statt eines pauschalen Verbots fordert der BEV ein rechtlich durchgesetztes Verbot von Plattformen, die für Menschen unter 16 Jahren „suchtverstärkende Algorithmen einsetzen oder Lock-in-Effekte zur Bindung nutzen“. Das könne Eltern entlasten. Zur Einordnung: Einen solchen Risiko-basierten Ansatz verfolgt das bereits bestehende Gesetz über digitale Dienste (DSA); dessen Lücken will die EU-Kommission mit dem geplanten Digital Fairness Act schließen.

In technischen Alterskontrollen sieht der BEV keine Lösung, wie aus der Antwort hervorgeht. Kontrollen per Biometrie oder Ausweis-App „sind aus Datenschutzsicht problematisch und lassen sich leicht umgehen“, warnt Kiefer. Hochsensible Daten könnten bei Unternehmen landen, „deren Geschäftsmodell auf Datenextraktion basiert – ein erhebliches Datenschutzrisiko“.

Statt eines Verbots sollten Schulen jungen Menschen Alternativen nahebringen, etwa das dezentrale Fediverse oder offene Messenger wie Element. Dann könnten Eltern ihren Kindern sagen: „Nein, du brauchst TikTok nicht – hier sind bessere Optionen.“

Sachsen: „Privacy by Design“ als Voraussetzung

Der Landeselternrat in Sachsen fordert ein „umfassendes Schutzkonzept“ für Kinder und Jugendliche, schreibt Vorsitzender Ronald Lindecke auf Anfrage. Lehrkräften zufolge seien Klassen weniger konzentriert; Schüler*innen würden Konflikte aus digitalen Räumen in den Schulalltag tragen. „Kinder sollten nicht den Mechanismen einer Plattformökonomie ausgesetzt sein, die stark auf Aufmerksamkeit, Datenauswertung und Konsum ausgerichtet ist“, schreibt Lindecke.

Wenn Social-Media-Regeln für unter 14-Jährige ein Teil des Konzepts sind, stehe er dem „grundsätzlich offen gegenüber“. Alterskontrollen hält er sogar für „zwingend notwendig“, entscheidend sei jedoch das Wie. Hierfür nennt Lindecke zwei Bedingungen: „Aus Elternperspektive kann eine Verifizierung Zustimmung finden, wenn sie datenschutzfreundlich und freiwillig umgesetzt wird“. Zur Erinnerung: Das australische Modell, das hierzulande als Vorbild gilt, ist nicht freiwillig oder datenschutzfreundlich.

Konkret fordert Lindecke „Privacy by Design“. Daten sollen demnach mit Ende-zu-Ende-Verschlüsselung übertragen werden; es sollen keine zentralen Datenbanken entstehen; und eine App sollte nur notwendige Attribute übermitteln. Das heißt zum Beispiel, dass eine Plattform mit Altersbeschränkung nicht etwa das Geburtsdatum einer Person erfährt, sondern bloß, ob sie alt genug ist.

Thüringen: „Lehnen biometrische Erfassung von Kindern ab“

Die Landeselternvertretung Thüringen sieht „hohen Klärungsbedarf“ bei Alterskontrollen für soziale Medien. „Wir halten Lösungen für sinnvoll, die sicherstellen, dass Eltern ihre Kinder schützen können, ohne selbst umfangreiche persönliche Daten preiszugeben“, schreibt Landeselternsprecher Peter Oehmichen auf Anfrage. „Dabei lehnen wir ausdrücklich die biometrische Erfassung von Kindern ab.“

Wenn Bilder von Kindern ins Netz gelangen, lasse sich nicht lückenlos prüfen, ob Datensammlungen entstehen. Die Elternvertretung warnt vor einem Risiko für die Sicherheit der Kinder.

„Verbote allein sind keine Lösung“, schreibt Oehmichen weiter. Er warnt davor, die Nutzung sozialer Medien zu kriminalisieren. Ein Verbot mache es schwerer, Kinder bei digitalen Aktivitäten zu begleiten. „Eltern sollen Partner im digitalen Schutz sein“. Der wichtigste Ansatz sei „Prävention, Aufklärung und Stärkung von Kindern“.

Mecklenburg-Vorpommern: Medienkompetenz vermitteln

Für den Landeselternrat Mecklenburg-Vorpommern steht ein Social-Media-Verbot nicht oben auf der Prioritätenliste. „Entscheidend ist aus unserer Sicht vor allem, dass Kinder frühzeitig lernen, verantwortungsvoll und kritisch mit digitalen Medien umzugehen“, erklärt Vorsitzende Diana Zander. Der Landeselternrat setze sich dafür ein, dass Schulen verbindlich Medienkompetenz vermitteln. „Ein reines Verbot ohne begleitende Bildung und Aufklärung würde zu kurz greifen.“

Technische Alterskontrollen könnten zwar helfen, Altersgrenzen besser durchzusetzen. Gleichzeitig müssten sie hohe Anforderungen an Datenschutz und Datensicherheit erfüllen. „Viele Eltern haben hier Bedenken, insbesondere wenn biometrische Daten wie Gesichtsscans genutzt werden sollen“, schreibt Zander. Außerdem dürften technische Lösungen nicht nur Hürden schaffen; sie müssten tatsächlich zur Sicherheit von Kindern beitragen.

Fazit: Eltern wollen Datenschutz für ihre Kinder

Die angefragten Eltern und ihre Vertreter*innen wünschen sich Schutz für ihre Kinder – das umfasst auch den Schutz ihrer Daten und Privatsphäre. Wirksame Alterskontrollen, die Daten von Kindern und Erwachsenen schützen und keine problematischen Hürden schaffen, diese Hoffnung prägt die aktuelle Debatte zum Social-Media-Verbot.

Erfüllen lässt sich diese Hoffnung aber nicht, denn bisher gibt es keine Technologie, die den Ansprüchen gerecht werden kann. Der Stand der Technik und die Rechtslage legen nahe: Die von Elternverbänden geäußerten Bedenken sind fundiert.

  • Die digitale Brieftasche (EUDI-Wallet) ist die derzeit wohl ambitionierteste Lösung für potenziell EU-weite Alterskontrollen bei hohem Datenschutz. Ob diese Alterskontrollen jedoch wirklich anonym ablaufen, steht noch nicht fest. Eine Lösung für alle kann die digitale Brieftasche ohnehin nicht sein: Menschen ohne mit der Wallet kompatible Papiere können sie nicht nutzen, in Deutschland sind das Schätzungen zufolge mehrere Hunderttausend. Laut EU-Gesetz muss die digitale Brieftasche zudem „freiwillig“ sein. Das heißt, es muss Alternativen geben.
  • Alternative Methoden zur Alterskontrolle wiederum versagen regelmäßig in Sachen Datenschutz und Privatsphäre. Wie gefährlich das werden kann, zeigen Fälle der jüngsten Vergangenheit: Kurz nachdem die Team-Software Discord Alterskontrollen eingeführt hatte, gab es einen Leak bei einem Drittanbieter; Betroffen waren sensible Ausweisdaten von 70.000 Menschen. In Australien wiederum horten manche Anbieter für Alterskontrollen ohne Not biometrische Daten, wie ein Gutachten im Auftrag der australischen Regierung zeigte.

In einem offenen Brief von Anfang März forderten 400 Forscher*innen aus 29 Ländern: Staaten sollen ihre Pläne für Alterskontrollen stoppen. Es fehle ein klares Verständnis für die Folgen der Technologie in Bezug auf „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.

Derzeit arbeiten Expert*innen-Kommission auf Deutschland- und EU-Ebene an Antworten für Kinder- und Jugendschutz im Netz. Ergebnisse sollen beide Gremien bis zum Sommer vorlegen. Im Anschluss könnte die Arbeit an Gesetzentwürfen beginnen. Deutschlands Elternverbände dürften das genau verfolgen.

Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Kinderdaten in Gefahr – Beueler-Extradienst

Alterskontrollen und Social-Media-Verbot: Elternverbände sehen Daten von Kindern in Gefahr

https://netzpolitik.org/2026/alterskontrollen-und-social-media-verbot-elternverbaende-sehen-daten-von-kindern-in-gefahr/

CDU und Teile der SPD fordern Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen.

#alterskontrollen #bundeselternnetzwerk #bundeselternrat #deutscherfamilienverband #digitalfairnessact #digitalebrieftasche #dsa #eudi_wallet #social_media_verbot #netzpolitik #freiheitsrechte

Credits: Alle Rechte vorbehalten IMAGO / Alexander Rochau

Frente a voces de retirada del proyecto, firmamos junto con 86 orgs. una carta a la Comisión Europea para pedir que se mantenga #DigitalFairnessAct #DFA.

➡️ Pedimos normas claras contra prácticas abusivas como dark patterns, diseño adictivo o perfilado
https://www.beuc.eu/sites/default/files/publications/BEUC-X-2026-020_Joint_call_for_an_ambitious_Digital_Fairness_Act_to_better_protect_people_online.pdf

Es gibt selbst in der #EU-Bürokratie noch ein paar Menschen mit halbwegs klarem Kopf.

»Der Digital Fairness Act soll Lücken im Verbraucherschutz schließen und ein höheres Schutzlevel für alle bringen.

Bei ihrer Arbeit am Entwurf nehmen die Beamt*innen gleich mehrere der Gefahren ins Visier, die auch Minderjährige betreffen, etwa süchtig machende Funktionen.«

https://netzpolitik.org/2026/digital-fairness-act-eu-kommission-erwaegt-ausschalt-knopf-fuer-suechtig-machende-designs/

#SocialMedia #SocialNetworks #DigitalFairnessAct #EUpol

Digital Fairness Act: EU-Kommission erwägt Ausschalt-Knopf für süchtig machende Designs

Die Debatte um ein Social-Media-Verbot beschäftigt die EU-Kommission auch beim Entwurf des Digital Fairness Acts. Statt darum, Minderjährige auszuschließen, geht es jedoch um mehr Schutz für alle, erklärt eine der Architekt*innen des Gesetzes bei einer Podiumsdiskussion.

netzpolitik.org
DFA: Nächstes EU-Gesetzeswerk vor dem Kippen?

115 Wissenschaftler und 85 Organisationen warnen davor, ein geplantes Gesetz für besseren digitalen Verbraucherschutz zu schwächen oder ausfallen zu lassen.

heise online
Tech lobby groups are intensifying their efforts to derail the forthcoming #DigitalFairnessAct, which aims to rein in the addictive design of social media 34 tech lobby groups have asked the Commission for a “pause and reset" ⚠️ We've joined over 200 NGOs and academics in insisting on a strong #DFA

RE: https://bsky.app/profile/did:plc:il3qbhsn3ejitwzu4n6ehspd/post/3mgwnhs2al22n

Addicted to the algorithm – New research exposes how #BigTech lobbies to keep us hooked on #SocialMedia

Olivier Hoedeman, @corporateeurope research and campaign coordinator:

> The addictive design of social media has become a major societal problem with serious impacts on public #health and endangering the future of #democracy.

05.02.2026 https://corporateeurope.org/en/2026/02/addicted-algorithm

#DiDay #ChildProtecion #SocialMediaBan #DigitalFairnessAct #DFA #Meta #Google #Bildung #FediLZ #Demokratie

Addicted to the algorithm | Corporate Europe Observatory

As the European Commission prepares a new Digital Fairness Act (DFA) to tackle addictive design of social media and other harmful digital practices, new research by Corporate Europe Observatory (CEO) reveals intense lobbying by Big Tech and industry groups to block or water down meaningful measures against social media addiction.

Corporate Europe Observatory

Ursachenbekämpfung statt Verbote

Social-Media-Debatte

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord verdeutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

Laura Jaruszewski ist von Januar bis März 2026 Praktikantin bei Netzpolitik. Ansonsten studiert sie in Göttingen Sozialwissenschaften und interessiert sich für Überwachungstechnologien und antifeministische Bewegungen im Netz. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Ursachenbekämpfung statt Verbote – Beueler-Extradienst

"You’ve certainly experienced it: you grab your phone to do something specific, and end up getting lost in the maze of stimuli – sounds, colours, videos, notifications, urgent messages –so much so that you forget why you picked up the phone in the first place and stay far longer on it than planned. We keep inventing new words to describe aspects of the experience, whether it’s doomscrolling, internet rabbit holes, or brainrot. The good news is, this isn’t just something that happens to you. There’s a growing political consensus that this is a structural problem by design, that Big Tech has gone too far, and EU legislation is on the way to give you more control over addictive features in social media apps. The bad news is, Big Tech has begun a full scale lobbying battle against this legislation.

As the European Commission is preparing rules to rein in the addictive design of social media app –­ as part of the forthcoming Digital Fairness Act – the tech industry is drawing on its considerable lobbying firepower to oppose it. The legislation comes in response to growing concerns about the public health impacts of social media addiction, both for children, adolescents, and adults alike. But the Big Tech giants behind Facebook, Instagram, TikTok, Snapchat, and other social media apps are pushing back. Keeping people on the apps for as long as possible is a central part of their business model and restrictions in addictive features would hurt their profits and power. In its lobbying, Big Tech aims to capitalize on the fact that EU decision-makers – with Commission President von der Leyen in the lead – are currently heavily prioritising industrial competitiveness via deregulation over other concerns. This means there are major new obstacles for legislation to pass."

https://corporateeurope.org/en/2026/02/addicted-algorithm-how-big-tech-lobbies-keep-us-hooked-social-media

#SocialMedia #BigTech #EU #Lobbying #DFA #DigitalFairnessAct #Addiction #BrainRot

Addicted to the algorithm: how Big Tech lobbies to keep us hooked on social media | Corporate Europe Observatory

As the EU prepares the Digital Fairness Act to tackle the addictive nature of social media design, big tech aggressively protects its business models. With Trumpists and far-right allies likely to join the chorus against the DFA, the Commission’s own drive for deregulation at all costs is not helping the chances of strong legislation.

Corporate Europe Observatory