Apple ujawnia trzy kluczowe badania z konferencji o prywatności i sztucznej inteligencji

Apple opublikowało prezentacje z Workshop on Privacy-Preserving Machine Learning (20–21 marca 2025), poświęconego prywatności i bezpieczeństwu w rozwoju AI.

Kilka miesięcy temu Apple zorganizowało warsztaty na temat uczenia maszynowego z zachowaniem prywatności, podczas których przedstawiono prezentacje i dyskusje na temat prywatności, bezpieczeństwa i innych kluczowych obszarów odpowiedzialnego rozwoju uczenia maszynowego. Teraz prezentacje te zostały upublicznione.

Podobnie jak niedawno w przypadku prezentacji z 2024 Workshop on Human-Centered Machine Learning, Apple opublikowało post na swoim blogu Machine Learning Research z kilkoma filmami i długą listą badań i artykułów, które zostały zaprezentowane podczas dwudniowego wydarzenia hybrydowego, które odbyło się w dniach 20-21 marca 2025 roku.

Do trzech najważniejszych prac należy zaliczyć.

Local Pan-Privacy for Federated Analytics – badanie Apple pokazuje, jak chronić prywatność danych nawet wtedy, gdy urządzenie zostanie wielokrotnie skompromitowane. Zastosowano nowe szyfrowane metody pozwalające zbierać statystyki bez ujawniania aktywności użytkownika.

Źródło: 9to5Mac.

Scalable Private Search with Wally – Apple zaprezentowało system wyszukiwania z wykorzystaniem differential privacy. Mechanizm Wally dodaje do zapytania losowe dane, co zapewnia anonimowość użytkowników, a jednocześnie umożliwia obsługę milionów żądań przy niższych kosztach.

Źródło: 9to5Mac.

Differentially Private Synthetic Data via Foundation Model APIs – badanie Microsoftu pokazuje, jak generować syntetyczne dane na podstawie modeli foundation, zachowując wartość danych rzeczywistych, ale bez naruszania prywatności.

Źródło: 9to5Mac.

Łącznie udostępniono 25 publikacji, przygotowanych przez badaczy z Apple, Microsoftu, Google oraz czołowych uczelni (m.in. MIT, UC Berkeley, Carnegie Mellon).

Oto ich pełna lista:

#AppleAI #AppleBadaniaAI #AppleKonferencjaPrywatność #bezpieczeństwoWAI #daneSyntetyczneAI #differentialPrivacy #federatedAnalytics #prywatnośćDanychApple #sztucznaInteligencjaApple #WallyApple

Apple stawia na sztuczne dane do trenowania AI – co to oznacza dla Apple Intelligence?

Apple nadrabia zaległości w wyścigu AI, inwestując w synthetic data, czyli sztucznie generowane dane wykorzystywane do trenowania modeli językowych. Jak ujawnia Bloomberg, Apple korzysta zarówno z licencjonowanych zbiorów danych, jak i danych syntetycznych, które tworzy samodzielnie.

Nowa aktualizacja oprogramowania pozwala iPhone’om tworzyć tysiące sztucznych e-maili na urządzeniu. Dane te są lokalnie porównywane z rzeczywistymi wiadomościami użytkownika, ale do Apple trafiają jedynie anonimowe sygnały – zgodnie z zasadami prywatności.

Wykorzystanie sztucznych danych nie jest nowością – z powodzeniem stosują je OpenAI, Microsoft (np. model Phi-4 – 55% syntetycznych danych), czy Meta. Dzięki synthetic data inżynierowie mogą tworzyć idealnie opisane, bezpieczne dane, obejmujące rzadkie przypadki i przyspieszające proces trenowania AI.

Choć krytycy obawiali się efektu „błędnego koła” AI uczącej się na danych generowanych przez inną AI, badania i praktyka pokazują, że odpowiednio dobrana syntetyczna treść może poprawiać jakość modeli, np. zmniejszając halucynacje.

Dla Apple to szansa:

  • przyspieszyć rozwój Apple Intelligence,
  • poprawić Siri,
  • wesprzeć obsługę wielu języków
  • obniżyć zapotrzebowanie na GPU.

To wszystko bez naruszania prywatności użytkowników.

#AI #aiApple #AppleAI2025 #AppleGPT #AppleIntelligence #AppleIPhoneAI #ApplePrywatnośćAI #AppleVsOpenAI #daneSyntetyczneAI #modeleJęzykoweApple #SiriAI #SiriPrzyszłość #syntheticDataApple #sztucznaInteligencjaIOS #trenowanieAI