„Passwort“ Folge 53: GrapheneOS, das sichere Custom-ROM für Android

Es gibt einige Varianten von Android, doch nur eine setzt auf maximale Sicherheit. Die Hosts und ihr Gast erklären, was GrapheneOS anders macht.

https://www.heise.de/news/Passwort-Folge-53-GrapheneOS-das-sichere-Custom-ROM-fuer-Android-11200104.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Android #GrapheneOS #IT #PasswortPodcast #Security #news

@heiseonline Danke für die spannende GrapheneOS-Folge im #PasswortPodcast. Ich nutze #GrapheneOS seit kurzem selbst und konnte bisher noch keine Showstopper finden. LineageOS mit MicroG hatte aber um einiges mehr Freiheiten was Einstellungen angeht. Z.b. empfinde ich es als absurd, dass die Anzahl der Apps auf dem Display künstlich klein gehalten wird.
Die Diskussion um anonyme Entwickler und die Gefahr der Angreifbarkeit des Projekts war mir vorher nicht gewahr, finde ich aber sehr spannend. Passend zum Thema habe ich durch einen anderen Podcast von folgender Studie erfahren, die im Prinzip besagt, dass man sich heutzutage Pseudonyme mit LLMs sehr zuverlässig anderen Aktivitäten im Internet zuordnen kann und Deanonymisierung skalierbar ist.
"Large-scale online deanonymization with LLMs"
https://arxiv.org/abs/2602.16800
Large-scale online deanonymization with LLMs

We show that large language models can be used to perform at-scale deanonymization. With full Internet access, our agent can re-identify Hacker News users and Anthropic Interviewer participants at high precision, given pseudonymous online profiles and conversations alone, matching what would take hours for a dedicated human investigator. We then design attacks for the closed-world setting. Given two databases of pseudonymous individuals, each containing unstructured text written by or about that individual, we implement a scalable attack pipeline that uses LLMs to: (1) extract identity-relevant features, (2) search for candidate matches via semantic embeddings, and (3) reason over top candidates to verify matches and reduce false positives. Compared to classical deanonymization work (e.g., on the Netflix prize) that required structured data, our approach works directly on raw user content across arbitrary platforms. We construct three datasets with known ground-truth data to evaluate our attacks. The first links Hacker News to LinkedIn profiles, using cross-platform references that appear in the profiles. Our second dataset matches users across Reddit movie discussion communities; and the third splits a single user's Reddit history in time to create two pseudonymous profiles to be matched. In each setting, LLM-based methods substantially outperform classical baselines, achieving up to 68% recall at 90% precision compared to near 0% for the best non-LLM method. Our results show that the practical obscurity protecting pseudonymous users online no longer holds and that threat models for online privacy need to be reconsidered.

arXiv.org