Apple ujawnia trzy kluczowe badania z konferencji o prywatności i sztucznej inteligencji

Apple opublikowało prezentacje z Workshop on Privacy-Preserving Machine Learning (20–21 marca 2025), poświęconego prywatności i bezpieczeństwu w rozwoju AI.

Kilka miesięcy temu Apple zorganizowało warsztaty na temat uczenia maszynowego z zachowaniem prywatności, podczas których przedstawiono prezentacje i dyskusje na temat prywatności, bezpieczeństwa i innych kluczowych obszarów odpowiedzialnego rozwoju uczenia maszynowego. Teraz prezentacje te zostały upublicznione.

Podobnie jak niedawno w przypadku prezentacji z 2024 Workshop on Human-Centered Machine Learning, Apple opublikowało post na swoim blogu Machine Learning Research z kilkoma filmami i długą listą badań i artykułów, które zostały zaprezentowane podczas dwudniowego wydarzenia hybrydowego, które odbyło się w dniach 20-21 marca 2025 roku.

Do trzech najważniejszych prac należy zaliczyć.

Local Pan-Privacy for Federated Analytics – badanie Apple pokazuje, jak chronić prywatność danych nawet wtedy, gdy urządzenie zostanie wielokrotnie skompromitowane. Zastosowano nowe szyfrowane metody pozwalające zbierać statystyki bez ujawniania aktywności użytkownika.

Źródło: 9to5Mac.

Scalable Private Search with Wally – Apple zaprezentowało system wyszukiwania z wykorzystaniem differential privacy. Mechanizm Wally dodaje do zapytania losowe dane, co zapewnia anonimowość użytkowników, a jednocześnie umożliwia obsługę milionów żądań przy niższych kosztach.

Źródło: 9to5Mac.

Differentially Private Synthetic Data via Foundation Model APIs – badanie Microsoftu pokazuje, jak generować syntetyczne dane na podstawie modeli foundation, zachowując wartość danych rzeczywistych, ale bez naruszania prywatności.

Źródło: 9to5Mac.

Łącznie udostępniono 25 publikacji, przygotowanych przez badaczy z Apple, Microsoftu, Google oraz czołowych uczelni (m.in. MIT, UC Berkeley, Carnegie Mellon).

Oto ich pełna lista:

#AppleAI #AppleBadaniaAI #AppleKonferencjaPrywatność #bezpieczeństwoWAI #daneSyntetyczneAI #differentialPrivacy #federatedAnalytics #prywatnośćDanychApple #sztucznaInteligencjaApple #WallyApple

Google heeft een nieuwe techniek geïntroduceerd: Confidential Federated Analytics (CFA).
Deze methode maakt gebruik van Trusted Execution Environments (TEEs) om gegevensverwerking te beperken tot vooraf goedgekeurde analyses, waardoor ongeautoriseerde toegang tot ruwe gegevens wordt voorkomen.
CFA is toegepast in Gboard, de Android-toetsenbordapp, om nieuwe woorden te detecteren in meer dan 900 talen.
#VerantwoordDatagebruik #FederatedAnalytics #Gboard
https://research.google/blog/discovering-new-words-with-confidential-federated-analytics/
Discovering new words with confidential federated analytics