Apple rozmawia z Google o wsparciu Siri przez Gemini AI

Według Bloomberga, Apple prowadzi rozmowy z Google na temat wykorzystania Gemini AI jako fundamentu dla nowej generacji Siri. Celem jest stworzenie inteligentniejszej, spersonalizowanej wersji asystenta głosowego.

Google szkoli już model dla serwerów Apple Private Cloud Compute, ale Apple wciąż testuje różne opcje – własne LLM oraz rozwiązania od OpenAI i Anthropic. Na stole są dwa warianty Siri: oparty na modelach Apple oraz na AI firm trzecich.

Craig Federighi, szef inżynierii oprogramowania Apple, nazwał projekt „drugą generacją Siri” i zapowiedział pełną przebudowę architektury asystenta, co ma umożliwić nowe funkcje oparte na Apple Intelligence w iOS 18.

Premiera ulepszonej Siri planowana jest na wiosnę 2026 roku.

#Anthropic #Apple #AppleGeminiAI #AppleIntelligence #AppleVsOpenAI #GoogleGemini #iOS18 #LLMSiri #nowaSiri #Siri2026 #SiriAI

Apple odkrywa na nowo zapomnianą technikę AI do generowania obrazów – Normalizing Flows

Apple zaprezentowało dwa badania, w których reaktywuje mało znaną technikę AI – Normalizing Flows (NF), mogącą konkurować z popularnymi dziś modelami dyfuzyjnymi (np. Stable Diffusion) i autoregresyjnymi (np. GPT-4o).

Czym są Normalizing Flows? To modele, które uczą się przekształcać dane rzeczywiste (np. obrazy) w szum i odwrotnie, z możliwością dokładnego obliczania prawdopodobieństwa wygenerowanego obrazu – coś, czego nie potrafią modele dyfuzyjne.

Pierwsze badanie TarFlow łączy Normalizing Flows z architekturą Transformerów. Generuje obraz bez tokenizacji, operując bezpośrednio na wartościach pikseli. To redukuje utratę jakości typową dla modeli przekształcających obrazy w symbole tekstowe.

Obrazy o różnych rozdzielczościach wygenerowane przez modele TarFlow. Od lewej do prawej, od góry do dołu: obrazy 256×256 w AFHQ, obrazy 128×128 i 64×64 w ImageNet.

2 badanie STARFlow działa w przestrzeni latentnej – generuje uproszczony obraz, który dekoder przekształca w wysoką rozdzielczość. Model może być zasilany zewnętrznymi LLM-ami (np. Gemma), które interpretują polecenia tekstowe użytkownika, a STARFlow skupia się na szczegółach wizualnych.

Losowe próbki STARFlow na ImageNet 256 × 256 i 512 × 512.

Jak wygląda porównanie Apple z OpenAI?

GPT-4o generuje obrazy jako sekwencje tokenów (jak tekst), co daje uniwersalność, ale jest wolne i zasobożerne – wymaga pracy w chmurze.

STARFlow jest zoptymalizowany pod pracę lokalną (on-device) – szybszy i bardziej energooszczędny.

Apple stawia na wydajne, lokalne generowanie obrazów, idealne dla urządzeń mobilnych.

#AI #aiapple #AppleAI #appleai #appleml #applevsopenai #generatywnaSztucznaInteligencja #generowanieobrazów #gpt4o #normalizingflows #OpenAI #starflow #sztucznaInteligencja #sztucznainteligencja #tarflow #technologia #transformerai

Gurman: Apple potrzebuje przełomu w AI, ale WWDC 2025 raczej nim nie będzie

Według Marka Gurmana (Bloomberg), nadchodząca konferencja WWDC 2025 może rozczarować fanów AI – Apple wciąż pozostaje w tyle za OpenAI i Google.

Najważniejszym ogłoszeniem ma być otwarcie modeli AI działających na urządzeniach dla deweloperów. To te same modele (~3 mld parametrów), które obecnie wspierają autokorektę czy podsumowywanie tekstu.

Choć to ważny krok, modele te są znacznie słabsze niż chmurowe systemy konkurencji. Nie należy więc spodziewać się rewolucji.

Nowości AI w iOS 26 i macOS 26:

  • Nowy tryb zarządzania energią baterii.
  • Ulepszona aplikacja Tłumacz, zintegrowana z AirPods i Siri.
  • Opisywanie niektórych funkcji jako „zasilane AI” w Safari i Zdjęciach.

Apple szykuje większe zmiany dopiero na WWDC 2026, co może być ryzykowne – konkurencja przyspiesza.

Apple zmienia nazwy systemów — będzie iOS 26! Co z iPhone’ami 17?

Co jeszcze w rozwoju:

  • Nowa wersja Siri oparta na LLM.
  • Przebudowana aplikacja Skróty.
  • Projekt Mulberry (AI w zdrowiu).
  • Konkurent ChatGPT z wyszukiwarką internetową.

Apple testuje obecnie modele AI o wielkości 3B, 7B, 33B i 150B parametrów – te największe działają w chmurze i zbliżają się jakością do ChatGPT. Trwają jednak wewnętrzne spory o kierunek rozwoju AI.

Dla deweloperów:

  • Głębsza integracja AI z narzędziami deweloperskimi.
  • SwiftUI z wbudowanym edytorem tekstu sformatowanego.
  • Oczekiwana aktualizacja Swift Assist – AI do uzupełniania kodu.

Konferencja rozpocznie się 9 czerwca o godzinie 19:00.

#AppleAI #AppleAIDlaDeweloperów #AppleIntelligence #AppleVsOpenAI #iOS26AI #macOS26AI #MarkGurman #nowościApple2025 #ProjectMulberry #SiriLLM #SwiftAssist #WWDC2025

Apple stawia na sztuczne dane do trenowania AI – co to oznacza dla Apple Intelligence?

Apple nadrabia zaległości w wyścigu AI, inwestując w synthetic data, czyli sztucznie generowane dane wykorzystywane do trenowania modeli językowych. Jak ujawnia Bloomberg, Apple korzysta zarówno z licencjonowanych zbiorów danych, jak i danych syntetycznych, które tworzy samodzielnie.

Nowa aktualizacja oprogramowania pozwala iPhone’om tworzyć tysiące sztucznych e-maili na urządzeniu. Dane te są lokalnie porównywane z rzeczywistymi wiadomościami użytkownika, ale do Apple trafiają jedynie anonimowe sygnały – zgodnie z zasadami prywatności.

Wykorzystanie sztucznych danych nie jest nowością – z powodzeniem stosują je OpenAI, Microsoft (np. model Phi-4 – 55% syntetycznych danych), czy Meta. Dzięki synthetic data inżynierowie mogą tworzyć idealnie opisane, bezpieczne dane, obejmujące rzadkie przypadki i przyspieszające proces trenowania AI.

Choć krytycy obawiali się efektu „błędnego koła” AI uczącej się na danych generowanych przez inną AI, badania i praktyka pokazują, że odpowiednio dobrana syntetyczna treść może poprawiać jakość modeli, np. zmniejszając halucynacje.

Dla Apple to szansa:

  • przyspieszyć rozwój Apple Intelligence,
  • poprawić Siri,
  • wesprzeć obsługę wielu języków
  • obniżyć zapotrzebowanie na GPU.

To wszystko bez naruszania prywatności użytkowników.

#AI #aiApple #AppleAI2025 #AppleGPT #AppleIntelligence #AppleIPhoneAI #ApplePrywatnośćAI #AppleVsOpenAI #daneSyntetyczneAI #modeleJęzykoweApple #SiriAI #SiriPrzyszłość #syntheticDataApple #sztucznaInteligencjaIOS #trenowanieAI