📰 Ah, the riveting world of Lego's microscopic precision. đŸ€ Apparently, without #JavaScript and #cookies, the secrets of 0.002 mm plastic bricks are incomprehensible. đŸȘ🔐 Clearly, the future of manufacturing hinges on the same technology that powers online ad tracking. đŸ€š
https://www.thewave.engineer/articles.html/productivity/legos-0002mm-specification-and-its-implications-for-manufacturing-r120/ #LegoManufacturing #PrecisionTechnology #OnlineTracking #HackerNews #ngated

New episode!

This article in the series What Everybody Knows About You by Andrew Oram explores how major retailers collect and use your private data to personalize marketing campaigns and guide in-store decisions such as product purchases and shelf placement.

Read it here: https://lpi.org/vfci

#datacollection #retailanalytics #customerdata #digitalprivacy #retaildatacollection #privacy #digitalprivacy #onlinetracking

Important post about your privacy. It has instructions linked.

And give @eff a follow if you have not.

https://www.eff.org/deeplinks/2026/03/targeted-advertising-gives-your-location-government-just-ask-cbp

#privacy #onlinetracking

The Government Uses Targeted Advertising to Track Your Location. Here's What We Need to Do.

The online advertising industry has built a massive surveillance machine, and the government can co-opt it to spy on us.

Electronic Frontier Foundation

Your browser leaves a hidden trail of data. 👣

Websites can learn about your device, location, and unique settings, and use that info for marketing purposes.

Read the latest Andrew Oram article to learn more: https://lpi.org/7g9a

@LPI #LPI #dataprivacy #privacy #browsertracking #cybersecurity #digitalprivacy #onlinetracking

TikTok kann Nutzer auch ohne App oder Account ĂŒber Tracking-Pixel erfassen.

Viele Menschen gehen davon aus, ohne TikTok-Account oder installierte App vor Datenerfassung sicher zu sein. Doch genau hier liegt das Problem. Recherchen zeigen, dass die Plattform offenbar auch dann Informationen sammelt, wenn Nutzer nie aktiv bei TikTok angemeldet waren.

https://t1p.de/d7h2a

#TikTok #Datenschutz #TrackingPixel #OnlineTracking #CyberSecurity #PrivatsphÀre #InternetSicherheit #Datenmissbrauch #Web

How Meta Connected Browsing Activity to Real People on Android

1,747 words, 9 minutes read time.

You think you’re invisible online when you’re in private browsing mode or after clearing cookies, right? I used to think the same thing. But the reality is a little harsher: Meta found ways to keep tabs on Android users even when they were trying to hide. I’m not here to scare you. I’m here to explain exactly how it worked, why it happened, and what you can realistically do about it.

We’ve all had the experience: you browse a few sites, check a couple of things in private, and later see ads that feel almost “too personalized.” You think, How did they know? This Meta case makes it clear that your standard privacy tools — incognito mode, cookie clearing — aren’t always enough. What Meta discovered, and what researchers exposed, is that the ecosystem itself is leaking information, whether you like it or not.

It’s tempting to blame yourself, but you’re not doing anything wrong. In reality, the way apps and browsers interact on Android is complex, and the rules were never designed to make users completely invisible. Meta simply found a way to connect dots that were already there. Understanding how this happened can help you make smarter decisions online — without panicking or quitting your favorite apps.

Tracking Isn’t Just About Cookies

For years, online tracking seemed simple. Websites dropped cookies — little snippets of data that said, “Hello, I recognize you.” Delete them, and the site forgets you. Go incognito, and you think you’re invisible. But modern tracking doesn’t rely solely on cookies. That’s old-school thinking. The industry has gotten smarter, and the methods have evolved to follow you even when you try to hide.

Meta’s approach is a prime example. They didn’t just rely on cookies or logins. Instead, they leveraged patterns of behavior and signals coming from apps and browsers. Think of cookies as leaving a name tag at a party. Take it off, and the host can’t read the name anymore — but they can still notice your face, how you walk, or the drinks you order. Those subtle identifiers are enough for someone skilled to link your behavior back to a real person.

The problem is compounded because these signals are baked into the operating system and how apps communicate. Every tap, every page load, every app interaction produces a tiny “footprint.” When a company like Meta has access to enough footprints, connecting them to accounts becomes almost trivial. In other words, tracking today isn’t about a single cookie — it’s about pattern recognition at scale.

Most people don’t realize how much of this happens behind the scenes. You clear cookies, turn on privacy features, and feel safe. But the ecosystem doesn’t just disappear your digital fingerprints. Understanding that tracking has moved beyond the old tools is the first step toward realistic, practical privacy.

The Android Ecosystem and Its Blind Spots

Android isn’t a sealed system. It’s more like a neighborhood where everyone’s got thin walls, and neighbors sometimes talk over the fences. Apps, browsers, and the operating system constantly exchange small pieces of information — often for legitimate purposes like syncing data or improving app performance. But those same mechanisms can be abused to identify and link users across services.

Think of your apps as apartments in a building. Each apartment is supposed to be private, but thin walls, shared utilities, and building-wide notices mean some information leaks. Meta’s method exploited these subtle leaks — the equivalent of overhearing conversations, noticing repeated patterns, or recognizing footprints in a shared courtyard. These aren’t security flaws in the traditional sense; they’re structural features of how Android is built to allow apps and services to communicate.

Even if you’re careful — you only use trusted apps, you clear cookies, you use incognito mode — the system itself can reveal patterns. Android provides some privacy protections, but they aren’t foolproof. Signals like app activity, device identifiers, and browsing behavior can still combine to form a recognizable profile. Meta’s approach took advantage of these natural “communication channels” between apps and browsers.

The lesson here isn’t to panic or quit Android. It’s to understand that privacy is about controlling what you can, not believing you can erase every trace. The Android ecosystem is complex, and awareness is the best tool you have. Knowing where data flows helps you make smarter choices.

Meta’s New Tracking Method

So, what exactly did Meta do? They didn’t hack your phone. They didn’t exploit a vulnerability that required a patch. Instead, they used existing communication pathways — the way apps and browsers naturally interact — to link browsing activity to real accounts. In plain terms, they stitched together patterns that already existed.

Imagine leaving faint footprints in the sand. On their own, each print is meaningless. But if someone tracks the pattern of steps, the gait, and the direction, they can identify the person walking. Meta’s system worked similarly: it looked at how users moved through apps and web pages and matched those patterns to known accounts. This method bypassed cookie protections and even incognito mode because it didn’t rely on those traditional mechanisms.

It’s also worth noting the scale here. Doing this effectively requires processing millions of data points across users and devices. That’s why most small apps don’t have this capability — but big platforms with massive infrastructure, like Meta, can. This isn’t a single exploit; it’s leveraging the architecture of Android itself to achieve tracking that feels invisible to the user.

For everyday users, the takeaway is clear: your actions, even in “private” modes, can leave a pattern that sophisticated systems can recognize. Understanding this doesn’t make you paranoid; it makes you informed. And informed users make smarter choices.

Why Your Privacy Tools Didn’t Stop It

Let’s address the obvious question: why didn’t incognito mode, cookie clearing, or app sandboxing stop this? The short answer is: because these tools aren’t designed to protect against this type of tracking. They protect specific areas — cookies, stored data, or app isolation — but not the broader patterns of behavior.

Analogy: locking your front door is great, but it doesn’t stop someone from watching the windows. Your privacy tools are doors and locks. Meta found ways to look through the windows, study your movement in the yard, and figure out whose house it was. That’s not a failure on your part; it’s a feature of the system.

Android does have protections against inter-app data sharing, but these are partial and often complicated to configure correctly. Even when you do everything “right,” sophisticated trackers can combine signals to make educated guesses about user identities. It’s frustrating, but it’s also a reminder that privacy isn’t binary.

The realistic takeaway is to understand limitations, not to assume invisibility. Privacy tools reduce exposure, slow down trackers, and add friction to data collection. They are your armor, not a magic shield. Understanding how far that armor stretches helps you make smarter decisions.

What This Means for Everyday Users

Here’s the bottom line: complete invisibility online is nearly impossible if you’re using mainstream apps. Platforms are designed to connect behavior to real users. Meta’s method is a case study in how this works, but it’s not unique. Google, Apple, and other companies also have ways to track activity across services and devices.

That doesn’t mean you’re powerless. The key is being aware. Awareness allows you to make deliberate choices about which apps to use, what permissions to grant, and how to navigate the ecosystem. You don’t need to quit Facebook or Instagram, but understanding their incentives and methods can guide smarter habits.

It also means adjusting expectations. Privacy isn’t a switch you flip; it’s a spectrum you navigate. You can reduce exposure and make tracking harder, but expecting perfect invisibility sets you up for disappointment. Instead, think strategically: what do you want to protect, and which tools realistically help?

Finally, this awareness empowers conversation. When companies expose privacy challenges, informed users can ask better questions, demand better policies, and make more conscious decisions about their digital lives.

Practical Steps You Can Take

Let’s get practical. Here are steps that actually help — no snake oil, no miracle fixes:

  • Limit app permissions. Only grant what’s necessary. Many apps ask for access to your contacts, camera, or location unnecessarily. Review and prune these regularly.
  • Use privacy-conscious browsers. Browsers like Firefox Focus, DuckDuckGo, or Brave block trackers better than default Chrome or Samsung Internet.
  • Restrict inter-app data sharing. Android settings allow you to limit cross-app data access. It won’t stop everything, but it reduces signals available to trackers.
  • Think before installing apps. Each new app is another potential tracker. Fewer apps mean fewer signals to stitch together.
  • Separate identities when needed. Some users create dedicated profiles or devices for certain types of browsing or app usage to minimize linking patterns.
  • The goal is realistic protection, not illusionary invisibility. Awareness, restraint, and intentional choices are your best defense.

    Bigger Picture Lessons

    Meta’s tracking isn’t an isolated incident — it’s representative of how modern tech handles user data. Privacy tools are often playing catch-up with the incentives of platforms that want to link activity to identities.

    For users, the lesson is simple: understand the system, don’t assume safety, and act consciously. For the industry, it’s a reminder that structural protections are often more effective than user-facing features alone. Privacy isn’t something you turn on; it’s something you manage.

    Knowing this, you can approach the digital world with less anxiety and more strategy. That’s far more effective than panic or avoidance.

    Conclusion

    Here’s what you need to remember:

    • Modern tracking isn’t just about cookies — it’s about behavior patterns and cross-app signals.
    • Privacy tools reduce exposure but can’t make you invisible.
    • Awareness and informed choices are your best defense.

    I’m not telling you to quit your apps or abandon your devices. I’m telling you how the game is played, so you can play smarter. The best armor in today’s ecosystem isn’t fear — it’s knowledge.

    Call to Action

    If this breakdown helped you think a little clearer about the threats out there, don’t just click away. Subscribe for more no-nonsense security insights, drop a comment with your thoughts or questions, or reach out if there’s a topic you want me to tackle next. Stay sharp out there.

    D. Bryan King

    Sources

    The New York Times – Meta’s Android Tracking Loophole
    CNBC – How Meta Tracked Users on Android
    CyberScoop – Meta’s Tracking Method on Android
    KrebsOnSecurity – Tracking and Privacy Insights
    Schneier on Security – Practical Privacy Analysis
    Mandiant Threat Intelligence Reports
    MITRE ATT&CK Framework
    NIST Publications on Security and Privacy
    Verizon Data Breach Investigations Report
    Black Hat Conference Materials

    Disclaimer:

    The views and opinions expressed in this post are solely those of the author. The information provided is based on personal research, experience, and understanding of the subject matter at the time of writing. Readers should consult relevant experts or authorities for specific guidance related to their unique situations.

    #AndroidBehaviorTracking #AndroidDataPrivacy #AndroidPrivacy #AndroidPrivacyAwareness #AndroidPrivacyGuide #androidSecurity #AndroidSignalTracking #AndroidSurveillance #AndroidUserPrivacy #appPermissions #appTrackingAndroid #appTrackingPrevention #crossAppTracking #digitalFootprint #digitalFootprintReduction #digitalIdentityAndroid #digitalPrivacyForMen #digitalPrivacyTips #everydayAndroidSecurity #incognitoModeTracking #interAppDataSharing #limitTrackingAndroid #MetaAndroidPrivacy #MetaAndroidTracking #MetaCookiesBypass #MetaDataTracking #MetaPrivacyExplained #MetaPrivacyIssue #MetaPrivacyLoophole #MetaPrivacyRisks #MetaTrackingAndroidUsers #MetaTrackingExplained #MetaTrackingLoophole #MetaTrackingMethod #MetaTrackingSolution #MetaUserTracking #mobilePrivacy #mobileTrackingTips #onlinePrivacyGuide #onlineSafetyAndroid #onlineTracking #privacyAwareness #privacyBestPractices #privacyHabitsAndroid #privacySettingsAndroid #privacyToolsAndroid #protectAndroidData #reduceAppTracking #reduceTrackingAndroid #secureAppUsage #secureBrowsingAndroid #smartphonePrivacy #smartphoneSecurityTips #stopMetaTracking #trackingMethods #trackingPatterns #trackingPrevention #userBehaviorTracking

    Falsche Richtung

    Interview mit der Bundesdatenschutzbeauftragten: â€žDie aktuelle Debatte geht in die falsche Richtung“

    Louisa Specht-Riemenschneider erklĂ€rt, warum KI und Datenschutz so schlecht zusammengehen und die Datenpolitik ein gesellschaftspolitisches Ziel braucht. Außerdem nennt sie eine ĂŒberraschend niedrige Zahl neuer Mitarbeitender, falls ihre Behörde die zentrale Wirtschaftsaufsicht erhĂ€lt.

    Seit gut einem Jahr ist Louisa Specht-Riemenschneider Bundesbeauftragte fĂŒr den Datenschutz und die Informationsfreiheit (BfDI). Nicht nur die schwarz-rote Bundesregierung hat sich mittlerweile weitreichende Reformen beim Datenschutz vorgenommen, sondern auch die EU-Kommission will die Datenschutzgrundverordnung erstmalig schleifen.

    Wir haben Specht-Riemenschneider in ihrem Berliner BĂŒro getroffen und sie gefragt, wo sie in der hitzig gefĂŒhrten Reformdebatte steht. Sie kritisiert Teile der PlĂ€ne der EU-Kommission, spricht sich aber auch selbst entschieden fĂŒr eine Reform aus. Der datenschutzrechtliche Rahmen erfĂŒlle seine Funktion nicht, allerdings laufe die aktuelle Debatte in die falsche Richtung. Vor VerĂ€nderungen in der Datenpolitik mĂŒsse eine gesellschaftspolitische Zielsetzung stehen, so die Forderung der Datenschutzbeauftragten.

    Auch zu den umstrittenen Themen Gesundheitsdigitalisierung und Reform der Datenschutzaufsicht in Deutschland haben wir die Juristin befragt.

    „An jeder Ecke fehlen Daten fĂŒr gemeinwohlorientierte Zwecke“

    Sie haben als Rechtswissenschaftlerin immer die Bedeutung von Daten fĂŒr Innovation betont und einen Ausgleich zwischen Datennutzung und Datenschutz gesucht. FĂŒr viele bedeutet das momentan vor allem, den Datenschutz zurĂŒckzubauen. Auf dem Digitale-SouverĂ€nitĂ€ts-Gipfel in Berlin lautete die neue Leitlinie „Product First, Regulation Second“. Ihre Behörde soll den Zusatz „Beauftragte fĂŒr Datennutzung“ erhalten. Geht die Entwicklung also in die richtige Richtung?

    FĂŒr mich stand nie zur Debatte, ob Datenschutz und Datennutzung zusammengehen. Die DSGVO soll genau das erreichen. Sie will ja nicht Datennutzung um jeden Preis verhindern, sondern gewĂ€hrleisten, dass dabei Grundrechte gewahrt bleiben. Gleichzeitig gibt es andere Grundrechte wie den Schutz der Gesundheit, die es notwendig machen, dass Daten verarbeitet werden. Beides muss man in Einklang bringen.

    In der öffentlichen Debatte wird derzeit allerdings versucht, diese zwei Positionen gegeneinander auszuspielen. Wir sind an einem Punkt, wo wir eine entscheidende Weichenstellung machen können. Und ich wĂŒrde mir eine viel stĂ€rker gesellschaftspolitische Diskussion darĂŒber wĂŒnschen, wo wir eigentlich hin wollen.

    Also fĂŒr welche Zwecke Daten genutzt werden sollen und fĂŒr welche nicht?

    Ja, wollen wir als Gesellschaft etwa Daten fĂŒr verbesserte Krebstherapien nutzen? Oder wollen wir verbesserte Datennutzbarkeit fĂŒr rein kommerzielle Interessen? Das beantwortet mir momentan politisch niemand.

    Wir haben zwar 1.000 Strategien, aber es fehlt ein Leitbild, an dem wir die Datenpolitik und auch die Regulierung ausrichten. Gerade jetzt wĂ€re die Gelegenheit, in der wir in Europa – anders als die USA oder China – eine Datennutzungsagenda entwickeln könnten, die Grundrechte, Demokratie und Freiheit mitdenkt.

    Bei der Gesundheitsdigitalisierung heißt es, der Datenschutz gefĂ€hrde Leben. In der Wirtschaft gefĂ€hrde er Europas WettbewerbsfĂ€higkeit. SpĂŒren Sie diesen Gegenwind?

    Ja, und ich finde es unheimlich schade, dass die Diskussion in die falsche Richtung geht. Der Rechtsrahmen fĂŒr Datenschutz und Datennutzung funktioniert offensichtlich nicht so, wie er eigentlich funktionieren sollte. Einerseits haben wir eine unglaubliche Masse an Daten, die rechtswidrig genutzt werden, wie etwa die „Databroker Files“ gezeigt haben. Andererseits fehlen an jeder Ecke Daten fĂŒr gemeinwohlorientierte Zwecke.

    Diese Gemengelage fĂŒhrt dazu, dass der Datenschutz zum Buhmann fĂŒr alles gemacht wird. Vergangenes Jahr habe ich gelesen, dass in einem Seniorenheim keine WeckmĂ€nner verteilt werden konnten, wegen des Datenschutzes. Das ist natĂŒrlich großer Quatsch, aber diese MissverstĂ€ndnisse werden unter anderem dadurch hervorgerufen, dass der Rechtsrahmen sehr komplex ist.

    „Es gibt im Omnibus auch Aspekte, die ich begrĂŒĂŸe“

    Mit ihrem „Digitalen Omnibus“ fĂ€hrt die EU-Kommission aktuell in die andere Richtung. Sie schlĂ€gt erstmals weitreichende Änderungen an der DSGVO vor. Verbraucher- und Datenschutzorganisationen sowie Teile des EU-Parlaments sprechen von einem Angriff auf die Grundlagen des europĂ€ischen Datenschutzes.

    Ich halte nichts davon, die Welt in Schwarz und Weiß einzuteilen. Die Kommission schlĂ€gt Regelungen vor, von denen einige datenschutzrechtlich ganz klar kritisch zu werten sind. Wenn ich zum Beispiel meine Betroffenenrechte nur noch fĂŒr datenschutzrechtliche Zwecke ausĂŒben darf, dann schrĂ€nkt mich das in meinen Rechten elementar ein. Gegen einen Missbrauchseinwand spricht nichts, aber er muss richtig formuliert sein.

    Es gibt im Omnibus jedoch auch Aspekte, die ich begrĂŒĂŸe. Die Vereinheitlichung von Digitalrechtsakten zum Beispiel, also die Zusammenfassung von Datennutzungsgesetzen im Data Act. Auch die VorschlĂ€ge zu Cookie-Bannern sind in ihrer Grundrichtung zu begrĂŒĂŸen.

    FĂŒr Kritik sorgt auch der Plan, die Definition personenbezogener Daten deutlich enger zu fassen und pseudonymisierte Daten unter bestimmten UmstĂ€nden von der DSGVO auszunehmen. Man folge da nur der Rechtsprechung des EuropĂ€ischen Gerichtshofs, heißt es von der Kommission. Der Jurist und Datenschutzexperte Max Schrems und andere sagen, das geht weit darĂŒber hinaus. Wer hat Recht?

    Man kann das Urteil so oder so lesen. Ich frage mich, ob die geplanten Änderungen – wenn man genau hinschaut – tatsĂ€chlich eine Abweichung vom derzeitigen Standard darstellen. Dazu berate ich mich gerade noch mit meinen Kolleg:innen in der Datenschutzkonferenz und möchte dem ungern vorgreifen.

    Ein weiterer Streitpunkt sind KI-Systeme. Die Kommission will klarstellen, dass diese auch ohne Einwilligung, auf Basis des legitimen Interesses, mit personenbezogenen Daten trainiert und betrieben werden dĂŒrfen.

    Die Kommission folgt hier einer Empfehlung des EuropĂ€ischen Datenschutzausschusses, bei der jedoch leider nicht genau ausformuliert wurde, unter welchen Bedingungen KI auf das berechtigte Interesse gestĂŒtzt werden kann. Der Omnibus unterscheidet hier leider auch nicht zwischen KI-Training zu kommerziellen oder zu gemeinwohlorientierten Zwecken oder zur AusĂŒbung anderer Grundrechte.

    Sie ist offenbar getrieben von der Sorge, Europa könne im sogenannten KI-Wettrennen verlieren. Gehen Datenschutz und KI einfach nicht zusammen?

    Ja, der geltende Datenschutz-Rechtsrahmen und KI gehen ganz schlecht zusammen. Das Hauptproblem ist, dass unklar ist, wie man Betroffenenrechte geltend machen soll, wenn KI-Systeme sich einzelne Daten merken. Wie sollen LöschansprĂŒche ausgeĂŒbt werden? Wie soll der Berichtigungsanspruch praktisch umgesetzt werden? Diese Fragen beantwortet auch der Digitale Omnibus nicht. Es wĂ€re klug, wenn sich der europĂ€ische Gesetzgeber die Zeit nehmen wĂŒrde, ĂŒber diese Frage etwas intensiver nachzudenken.

    Da sind wir auch wieder bei der Gretchenfrage: FĂŒr welche Zwecke wollen wir als Gesellschaft KI und fĂŒr welche nicht? Das scheint mir wirklich eine Grundsatzdiskussion zu sein, die wir dringend fĂŒhren und dann gesetzgeberisch entsprechend handeln mĂŒssen. Entwicklung und Einsatz von KI fĂŒr gemeinwohlorientierte Zwecke oder zur AusĂŒbung von Grundrechten wĂŒrde ich gern gesetzlich privilegiert sehen, fĂŒr andere Zwecke ist das meines Erachtens weniger erforderlich. Große Player, die kommerzielle KI-Modelle anbieten, können mit der Rechtsunsicherheit gut umgehen.

    Wo eine Reform ansetzen sollte

    Viele DatenschĂŒtzer:innen warnen davor, im aktuellen politischen Klima solche Grundsatzfragen zu stellen und das große Fass DSGVO ĂŒberhaupt aufzumachen.

    Ich möchte eine Grundsatzdebatte sogar vehement einfordern. Der bestehende Rechtsrahmen funktioniert nicht so, wie er funktionieren soll. NatĂŒrlich will ich die DSGVO nicht insgesamt nochmal zur Abstimmung stellen. Aber wir sollten ĂŒber Nachbesserungen im geltenden Rechtsrahmen sprechen. Das Interessante am Omnibus ist ja nicht nur das, was drinsteht, sondern vor allem das, was nicht drin steht.

    Was fehlt Ihnen?

    Wie bekomme ich zum Beispiel eine Databroker-Regelung in die DSGVO? Wie schaffen wir es, dass Selbstbestimmung nicht nur auf dem Papier existiert?

    Das Grundproblem ist die Einwilligung. Wir hatten in den 1960er- und 1970er-Jahren eine Ă€hnliche Diskussion zu Selbstbestimmung im Verbraucherschutzrecht. Schon damals war klar, dass Verbraucher:innen Entscheidungen treffen, die manchmal nicht selbstbestimmt sind, weil es Machtasymmetrien gibt. Also mĂŒssen wir dafĂŒr sorgen, dass wir die Vertragsparteien auf Augenhöhe bekommen, damit Verbraucher:innen gleichberechtigt entscheiden können.

    Warum fĂŒhren wir diese Diskussion nicht auch bei der DSGVO? DafĂŒr mĂŒssen wir deren GrundsĂ€tze nicht anfassen, sondern an die Frage der Einwilligung ran. Und wir mĂŒssen dafĂŒr sorgen, dass die DSGVO besser in der Praxis umgesetzt wird. Das ist nur vordergrĂŒndig eine Frage des BĂŒrokratieabbaus.

    Sondern?

    Ich höre oft von Unternehmer:innen, dass sie Datenschutz beachten wollen, aber nicht wissen, wie sie dabei am besten vorgehen. Wenn wir also am Ende mehr Rechtsklarheit in die Verordnung hineinbekommen, dann ist das auch ein Weg, um Betroffene besser zu schĂŒtzen, weil die Regeln besser umgesetzt können. Auch der risikobasierte Ansatz der DSGVO sollte weiter ausdifferenziert werden. Also dass nicht alle die gleichen Pflichten haben, sondern Ă€hnlich wie bei der KI-Verordnung die Verantwortung grĂ¶ĂŸer ist, wenn das Risiko der Datenverarbeitung zunimmt.

    Wie man das Problem der Databroker lösen könnte

    Erst kĂŒrzlich konnten wir mit den gerade schon angesprochenen Databroker-Recherchen zeigen, wie sich selbst hochrangiges EU-Personal ausspionieren lĂ€sst – mit Daten aus dem Ökosystem der Online-Werbung, die wir kostenfrei von Databrokern bekommen haben. Wie löst man dieses Problem?

    Das ist nicht trivial, weil Werbe-Tracking mit Einwilligung zulĂ€ssig sein kann, in vielen FĂ€llen wohl aber Zweifel an der RechtsgĂŒltigkeit der Einwilligungen bestehen. Deshalb mĂŒssen wir uns zunĂ€chst anschauen, wie die Datenströme verlaufen: Ich habe ein EndgerĂ€t mit der Werbe-ID, von dem Daten an einen Databroker gehen, der hĂ€ufig in einem Drittstaat sitzt, beispielsweise in den USA. Und dann habe ich einen DatenankĂ€ufer, der etwa in einem anderen europĂ€ischen Staat sitzt.

    Den Databroker in den USA kriegt man aufsichtsrechtlich sehr schwer zu fassen, da brÀuchte man Amtshilfe von US-Behörden. Beim DatenankÀufer ist es einfacher, wenn er in einem EU-Mitgliedstaat sitzt. Er ist aber das letzte Glied in der Kette. Selbst wenn wir nachweisen können, dass er sich datenschutzwidrig verhÀlt, beendet das noch nicht den Datenhandel.

    Daher wĂ€re es am sinnvollsten, die Apps ins Visier zu nehmen, die die Werbe-ID weitergeben. Wir sollten darĂŒber nachdenken, ob die Ausleitung der Werbe-ID grundsĂ€tzlich beschrĂ€nkt werden sollte – auch wenn Nutzer:innen „einwilligen“. Das könnte man ĂŒbrigens auch in einem Omnibus regeln.

    Um die KomplexitĂ€t noch zu erhöhen, gibt es auch noch das Teilproblem der DatenmarktplĂ€tze. Das sind die Plattformen, auf denen Interessierte und Anbieter von Daten zusammenkommen. Der grĂ¶ĂŸte Marktplatz hat seinen Sitz in Berlin, die Berliner Datenschutzaufsicht kam zu dem Schluss, dass die DSGVO nicht anwendbar ist, weil er nur Kontakte vermittelt und selbst die DatensĂ€tze nicht verarbeitet.

    Wir hatten eine Ă€hnliche Situation schon mal beim geistigen Eigentum. Filesharing-Clients hatten einst auch argumentiert, dass sie nur den Kontakt zwischen Person A und Person B herstellen, die dann MusikstĂŒcke austauschen. Damals haben die Gerichte die Vermittlungsplattform mit dem TĂ€ter quasi gleichgestellt. Eine solche Störerhaftung könnte man auch im Datenschutzrecht vorsehen.

    Ich weiß, dass es die Rechtsauffassung gibt, dass die TĂ€tigkeiten von DatenmarktplĂ€tzen heute schon eine VerarbeitungstĂ€tigkeit sind. Aber selbst dann wĂ€re es hilfreich, dies explizit ins Gesetz zu schreiben, um Rechtsklarheit zu schaffen. Das könnte man gegebenenfalls sogar auf nationaler Ebene lösen, ohne den Weg ĂŒber die EU.

    „Eine Verpflichtung wĂ€re eine großer Schritt“

    Überraschenderweise hat die EU-Kommission auch einen neuen Rechtsrahmen fĂŒr Consent-Manager fĂŒr Cookies in den Omnibus aufgenommen, obwohl dieser ja eigentlich nur eine technische Anpassung sein sollte. In Deutschland gibt es die Möglichkeit schon lĂ€nger, Ihre Behörde hat neulich den ersten Cookie-Manager fĂŒr Deutschland anerkannt. WĂŒrde das das Databroker-Problem lösen?

    Nein, aber es löst ein anderes Problem.

    Wenn ich das Ziel verfolge, Cookie-Banner zu reduzieren, dann habe ich dafĂŒr verschiedene Möglichkeiten. Eine besteht darin, den Verbraucher:innen die Möglichkeit zu geben, vorab generell zu erklĂ€ren, fĂŒr welche Zwecke Cookies bei ihnen gesetzt werden dĂŒrfen und fĂŒr welche nicht. Und die Website-Betreiber zugleich dazu zu verpflichten, diese Entscheidung auch zu akzeptieren.

    Das ist auch der Punkt, den ich beim Omnibus einigermaßen positiv sehe. Da steht drin, dass Website-Betreiber die Cookie-Einstellung akzeptieren sollten. Wenn die Vorgabe so zu lesen ist, dass sie dazu verpflichtet sind, dann wĂ€re das ein großer Schritt. Denn diese Pflicht sieht die deutsche Rechtslage derzeit nicht vor. Das ist ja der große Kritikpunkt an den Einwilligungsmanagementsystemen, wie sie in Deutschland gegenwĂ€rtig vorgesehen sind.

    „Hundertprozentige Sicherheit gibt es nicht“

    Sie sprachen eingangs das Grundrecht auf Schutz der Gesundheit an. Die elektronische Patientenakte hat ein ereignisreiches Jahr hinter sich. Auf SicherheitslĂŒcken in der ePA angesprochen, haben Sie mal den Vergleich gezogen, dass in ein Haus auch eingebrochen werden kann – „ganz gleich, wie gut die Alarmanlage ist“. Ist das nicht eine schrĂ€ge Analogie?

    Was ich damit sagen wollte, ist, dass wir nie eine hundertprozentige Sicherheit im technischen System haben können. Eine solche Sicherheit gibt es nicht.

    Wir mĂŒssen allerdings alles tun, um SicherheitslĂŒcken so frĂŒh wie möglich zu erkennen, zu schließen und deren Zahl so gering wie möglich zu halten. Das sind die drei Dinge, die wahnsinnig wichtig sind.

    Allerdings ist bei der Sicherheit der ePA das Bundesamt fĂŒr Sicherheit in der Informationstechnik (BSI) der primĂ€re Ansprechpartner. Wir als Datenschutzaufsicht schauen uns vor allem die Datenverarbeitung an, die in der ePA stattfindet. Das BSI ist dafĂŒr zustĂ€ndig, im Dialog mit dem Bundesgesundheitsministerium und der Gematik, die SicherheitslĂŒcken zu schließen. Wir werden dann darĂŒber informiert und dĂŒrfen uns dazu Ă€ußern.

    Das war ja mal anders.

    FrĂŒher mussten Spezifikation der Gematik von uns „freigeben“ werden, sie musste also Einvernehmen mit uns herstellen. Jetzt muss sie uns nur noch ins Benehmen setzen. Ich darf jetzt zwar etwas sagen, aber man muss mir theoretisch nicht mehr zuhören.

    In ihren Vorversionen verfĂŒgte die ePA noch ĂŒber zahlreiche Möglichkeiten, mit denen Versicherte genauer einstellen konnten, welche Dokumente Behandelnde sehen dĂŒrfen und welche nicht. Davon ist heute nicht mehr viel ĂŒbrig. Ist das Versprechen einer patientenzenterierten ePA ĂŒberhaupt noch zu halten?

    Es kommt darauf an, was man als patientenzentriert definiert. Die Einstellungen in der ePA 2.0 waren dokumentengenauer. Das wurde ein StĂŒck weit zurĂŒckgeschraubt. Wir werden allerdings mit dem EuropĂ€ischen Gesundheitsdatenraum (EHDS) bald eine Rechtslage bekommen, die möglicherweise wieder feinere Einstellungen vorsieht. Die Details dazu werden derzeit noch ausgearbeitet.

    Ein großes Problem in der ePA war, dass Leistungserbringer immer auch die Abrechnungsdaten zu sehen bekamen, die die Krankenkasse in die Patientenakte einstellt. Selbst wenn ich eingestellt hatte, dass bestimmte Leistungserbringer Dokumente nicht sehen sollen. Ärzte hĂ€tten dann trotzdem sehen können, dass man schon bei einem anderen Arzt war und wie die Diagnose lautete. Das ist zumindest abgestellt worden und das ist ein Fortschritt.

    „FĂŒr eine patientenztentrierte ePA ist es noch nicht zu spĂ€t“

    Dennoch bleibt die Frage, ob die Chance vertan wurde, ein großes Digitalisierungsprojekt datenschutzorientiert auf die Beine zu stellen?

    Ich muss selbst entscheiden können, welche Daten in meine ePA hineinkommen. Das kann ich aber nur tun, wenn ich vernĂŒnftig informiert werde. Bislang wird Ă€ußerst wenig dafĂŒr getan, dass Informationen auch bei den Menschen ankommen.

    Und das vor allem deswegen, weil das Gesetz ĂŒberall Informationserteilungspflichten vorsieht, aber nicht fordert, dass die Information von den Patient:innen auch wahrgenommen wird. Erst jetzt startet eine breit angelegte Werbekampagne des BMG. Insgesamt wurde aus meiner Sicht viel zu spĂ€t und mit viel zu geringer PrioritĂ€t informiert. Wir haben dazu gerade eine große Umfrage durchgefĂŒhrt und veröffentlichen die Ergebnisse bald in unserem Datenschutzbarometer.

    Wir haben unzĂ€hlige Beratungsschreiben an die Krankenkassen geschrieben, damit die Informationen möglichst gut verstanden werden. Damit Menschen sich wirklich befĂ€higt fĂŒhlen, informierte Entscheidungen zu treffen, muss ich anders informieren als in einem fĂŒnfseitigen Brief, den Versicherte bekommen und dann achtlos in den MĂŒll schmeißen, weil sie denken, das es eine weitere Beitragsanpassung ist. Ich sehe die Verantwortung aber hier wie gesagt auch beim Gesetzgeber.

    Ist die Chance vertan, dass die ePA dem Anspruch an Information und Selbstbestimmung gerecht wird? Ich glaube nicht. Aber es ist verdammt spÀt.

    „Das wĂŒrde meine Behörde und mich sehr schmerzen“

    Lassen Sie uns zum Schluss ĂŒber eine weitere Datenschutz-Baustelle sprechen: die Verteilung der Aufsichtskompetenz in Deutschland. Ihre Behörde könnte die Aufsicht ĂŒber die Geheimdienste verlieren.

    Das ist fĂŒr mich eine ganz schwierige Situation. Der Verlust der Aufsicht ĂŒber die Nachrichtendienste wĂŒrde meine Behörde und mich sehr schmerzen. Nicht weil wir dann zwanzig Mitarbeiter weniger hĂ€tten. Sondern weil wir die einzige Stelle sind, die eine komplette Übersicht ĂŒber die Sicherheitsbehörden insgesamt hat und darĂŒber, wie sie Daten von BĂŒrgerinnen und BĂŒrgern nutzen.

    Die aktuelle politische Diskussion geht klar in die Richtung, dass Nachrichtendienste mehr Befugnisse erhalten sollen. Ein solcher Machtzuwachs lĂ€sst sich aber nur dann rechtfertigen, wenn gleichzeitig ein vernĂŒnftiges Aufsichtsregime gewĂ€hrleistet wird.

    Die PlÀne kÀmen einer Entmachtung Ihrer Behörde gleich.

    Teile der Aufsicht, die wir bisher ausgeĂŒbt haben, sollen in einen unabhĂ€ngigen Kontrollrat verlagert werden. Das wĂ€re eine Zerfaserung der Aufsicht, die GesamtĂŒbersicht ĂŒber die Sicherheitsbehörden wĂ€re nicht mehr gegeben. Das finde ich bedenklich. Wir sind nĂ€mlich auch die einzige Stelle, die die Gesamtheit des Überwachungsdrucks im Blick behalten kann.

    Wir haben derzeit eine Haushaltssituation, wo alle sparen sollen. Ich frage mich, wieso da eine neue Stelle geschaffen werden soll, die Aufgaben ĂŒbernimmt, fĂŒr die eine andere Behörde jahrelang Kompetenz aufgebaut hat. Haben wir vielleicht zu genau hingeschaut in den vergangenen Jahren?

    An anderer Stelle könnte Ihre Behörde an Bedeutung gewinnen. Der Koalitionsvertrag sieht eine BĂŒndelung der ZustĂ€ndigkeiten und Kompetenzen bei der Aufsicht ĂŒber Wirtschaft und Vereine bei Ihnen vor. DafĂŒr kursieren unterschiedliche Modelle.

    Auch diese Situation ist fĂŒr mich persönlich nicht ganz leicht, weil ich meine Kolleg:innen aus der Datenschutzkonferenz (DSK) sehr schĂ€tze. Die Landesdatenschutzaufsichtsbehörden machen hervorragende Arbeit.

    Gleichwohl glaube ich, dass 18 Aufsichtsbehörden zwangslĂ€ufig auch mal unterschiedliche Rechtsauffassungen vertreten. Wir können nicht alles auf DSK-Ebene diskutieren und gemeinsam entscheiden. Es gibt daher gute Argumente fĂŒr eine BĂŒndelung. Ich glaube auch, dass man Aufsicht und Beratung dann besser skalieren könnte.

    UnabhĂ€ngig davon, welches Modell es am Ende wird, muss die Datenschutzkonferenz fĂŒr die Aufsicht ĂŒber öffentliche Stellen eine eigene GeschĂ€ftsstelle bekommen, weil durch den wechselnden Vorsitz zu viele KapazitĂ€ten in Organisationsfragen gebunden werden.

    Zum Abschluss die Preisfrage: Wie viele neue Stellen brÀuchten Sie, wenn es zu einer Zentralisierung kommen sollte, also einer vollstÀndigen Verlagerung der Wirtschaftsaufsicht von den LÀnderbehörden zu Ihnen?

    Wir gehen je nach Ausgestaltung von einer hohen zweistelligen bis niedrigen dreistelligen Zahl aus.

    Ihre LÀnderkolleg:innen rechnen mit deutlich höheren Zahlen.

    Wir haben das intern durchgerechnet und gehen von Skalierungseffekten aus. Insofern kommen wir mit deutlich weniger Stellen aus, als derzeit in der öffentlichen Diskussion angenommen wird.

    Ingo  Dachwitz ist Journalist und Kommunikationswissenschaftler. Seit 2016 ist er Redakteur bei netzpolitik.org und u.a. Ko-Host des Podcasts Off/On. Er schreibt hĂ€ufig ĂŒber Datenmissbrauch und Datenschutz, Big Tech, Plattformregulierung, Transparenz, Lobbyismus, Online-Werbung, WahlkĂ€mpfe und die Polizei. 2024 wurde er mit dem Alternativen Medienpreis und dem Grimme-Online-Award ausgezeichnet. Ingo ist Mitglied des Vereins Digitale Gesellschaft sowie der Evangelischen Kirche. Seit 02/2025 ist sein Buch erhĂ€ltlich: “Digitaler Kolonialismus: Wie Tech-Konzerne und GroßmĂ€chte die Welt unter sich aufteilen”. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, FragDenStaat

    Daniel Leisegang ist Politikwissenschaftler und Co-Chefredakteur bei netzpolitik.org. Zu seinen Schwerpunkten zĂ€hlen die Gesundheitsdigitalisierung, Digital Public Infrastructure und die sogenannte KĂŒnstliche Intelligenz. Daniel war einst Redakteur bei den »BlĂ€ttern fĂŒr deutsche und internationale Politik«. 2014 erschien von ihm das Buch »Amazon – Das Buch als Beute«; 2016 erhielt er den Alternativen Medienpreis in der Rubrik »Medienkritik«. Er gehört dem Board of Trustees von Eurozine an. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, Threema ENU3SC7K, Telefon: +49-‭30-5771482-28‬ (Montag bis Freitag, jeweils 8 bis 18 Uhr). Dieser Beitrag ist eine Übernahme von netzpolitik, gemĂ€ss Lizenz Creative Commons BY-NC-SA 4.0.

    Falsche Richtung – Beueler-Extradienst

    #DoNotTrack in Kalifornien:

    #Gesetz566 verpflichtet #Browser-Anbieter ab 2027 zu einer Opt-out-Funktion, "die Websites automatisch darĂŒber informiert, dass persönliche Daten nicht an Dritte weitergegeben werden dĂŒrfen."

    https://www.heise.de/news/Kalifornien-staerkt-Datenschutz-Das-Ende-des-Cookies-wie-wir-ihn-kennen-11069439.html

    #CookieBanner #Cookies #Tracking #Werbetracking #OnlineTracking #DSGVO #Datenschutz

    Kalifornien stÀrkt Datenschutz: Das Ende des Cookies, wie wir ihn kennen?

    Der kalifornische Gouverneur Gavin Newsom hat ein Gesetz unterzeichnet, das den Datenschutz verbessern soll – mit möglichen Folgen fĂŒr Nutzer der gesamten USA.

    heise online

    Your Phone Isn’t Spying on You to Show You Ads (It’s Worse Than That).

    An excellent article that explains how adcetisere and data broker companies are knowing all about you without listening to your microphone.

    https://lifehacker.com/what-people-are-getting-wrong-this-week-phone-surveill-1850658089

    #privacy #android #ios #windows #google #amazon #facebook #ads #onlinetracking #onlineprivacy

    Your Phone Isn’t Spying on You to Show You Ads (It’s Worse Than That)

    Your iPhone is not eavesdropping on your conversations to sell you things. It’s actually much worse.

    Lifehacker
    Wolfie Christl (2017) Corporate Surveillance in Everyday Life (Englisch) - makeITsocial Infodienst

    Wolfie Christle benennt schon 2017 in „Corporate Surveillance in Everyday Life“ die unsichtbaren Kontrollmechanismen großer Unternehmen. Die Publikation ist leider nur in englisch verfĂŒgbar.

    makeITsocial Infodienst