Apple przyspiesza działanie modeli AI nawet 5 razy

Apple opublikowało badania opisujące nową technikę, która pozwala modelom językowym (LLM) generować odpowiedzi nawet pięć razy szybciej, bez utraty jakości.

Tradycyjnie modele LLM tworzą tekst token po tokenie (autoregresja), co spowalnia proces. Apple odkryło, że modele – mimo trenowania na przewidywanie jednego tokena – mają wiedzę o kilku kolejnych. Na tej podstawie powstał framework Multi-Token Prediction (MTP), w którym model przewiduje naraz kilka tokenów.

Badacze wprowadzili specjalne tokeny maskujące w treści promptów (np. „Kot jest ”), które model wypełnia w jednym kroku („bardzo puszysty”). Jeśli przewidywanie nie jest zgodne z klasycznym trybem, system wraca do standardowej metody. Dzięki temu zachowana jest wysoka dokładność.

Testy z modelem open-source Tulu3-8B pokazały:

  • 2–3 razy szybsze działanie w typowych zadaniach (Q&A, czat)
  • do 5 razy szybsze w przewidywalnych domenach, takich jak programowanie i matematyka
  • brak utraty jakości dzięki technice gated LoRA adaptation

Pełny artykuł naukowy dostępny jest na stronach arXiv.

#aiApple #Apple #AppleIntelligence #badaniaApple #gatedLoRAAdaptation #generowanieTekstu #LLM #modeleJęzykowe #MTP #MultiTokenPrediction #optymalizacjaAI #przyspieszenieAI #sztucznaInteligencja #szybkieAI #Tulu38B

Apple współpracuje z topowymi aplikacjami nad nową Siri

Apple intensywnie rozwija nową generację Siri, która połączy się z Apple Intelligence i systemem App Intents. Dzięki temu asystent zyska lepsze rozumienie kontekstu, świadomość treści na ekranie i obsługę działań w aplikacjach.

Według Marka Gurmana, Apple już współpracuje z twórcami popularnych aplikacji, aby przygotować je na premierę Siri 2.0. Na liście są m.in.: Uber, AllTrails, Threads, Temu, Amazon, YouTube, Facebook i WhatsApp. Testy obejmują również kilka gier oraz aplikacje Apple.

Oto, co będą oznaczać nowe App Intents: Nie używając niczego poza głosem, będziesz mógł powiedzieć Siri, aby znalazła określone zdjęcie, edytowała je i wysłała. Lub skomentować post na Instagramie. Lub przewinąć aplikację zakupową i dodać coś do koszyka. Lub zalogować się do usługi bez dotykania ekranu. Zasadniczo Siri mogłaby obsługiwać Twoje aplikacje tak, jak Ty byś to robił.

– pisze Gurman.

Nowy Siri pierwotnie zapowiedziano na WWDC 2024, z planem premiery wiosną 2025 roku, jednak rozwój skomplikował hybrydowy model łączący nowe AI z elementami starego systemu. Premiera może odbyć się dopiero wiosną 2026 roku.

System App Intents jest już znany z integracji z Skrótami, Spotlight i widżetami, a teraz stanie się kluczowy dla Siri nowej generacji. Deweloperzy będą mieli krótki czas na dostosowanie aplikacji przed publicznym debiutem w wersji beta.

#aiApple #AllTrails #Amazon #aplikacjeIOS #AppIntents #Apple #AppleIntelligence #asystentGłosowyApple #Facebook #iOS26 #MarkGurman #nowySiri #Siri #Temu #Threads #uber #whatsapp #WWDC2024 #YouTube

Apple odkrywa na nowo zapomnianą technikę AI do generowania obrazów – Normalizing Flows

Apple zaprezentowało dwa badania, w których reaktywuje mało znaną technikę AI – Normalizing Flows (NF), mogącą konkurować z popularnymi dziś modelami dyfuzyjnymi (np. Stable Diffusion) i autoregresyjnymi (np. GPT-4o).

Czym są Normalizing Flows? To modele, które uczą się przekształcać dane rzeczywiste (np. obrazy) w szum i odwrotnie, z możliwością dokładnego obliczania prawdopodobieństwa wygenerowanego obrazu – coś, czego nie potrafią modele dyfuzyjne.

Pierwsze badanie TarFlow łączy Normalizing Flows z architekturą Transformerów. Generuje obraz bez tokenizacji, operując bezpośrednio na wartościach pikseli. To redukuje utratę jakości typową dla modeli przekształcających obrazy w symbole tekstowe.

Obrazy o różnych rozdzielczościach wygenerowane przez modele TarFlow. Od lewej do prawej, od góry do dołu: obrazy 256×256 w AFHQ, obrazy 128×128 i 64×64 w ImageNet.

2 badanie STARFlow działa w przestrzeni latentnej – generuje uproszczony obraz, który dekoder przekształca w wysoką rozdzielczość. Model może być zasilany zewnętrznymi LLM-ami (np. Gemma), które interpretują polecenia tekstowe użytkownika, a STARFlow skupia się na szczegółach wizualnych.

Losowe próbki STARFlow na ImageNet 256 × 256 i 512 × 512.

Jak wygląda porównanie Apple z OpenAI?

GPT-4o generuje obrazy jako sekwencje tokenów (jak tekst), co daje uniwersalność, ale jest wolne i zasobożerne – wymaga pracy w chmurze.

STARFlow jest zoptymalizowany pod pracę lokalną (on-device) – szybszy i bardziej energooszczędny.

Apple stawia na wydajne, lokalne generowanie obrazów, idealne dla urządzeń mobilnych.

#AI #aiapple #AppleAI #appleai #appleml #applevsopenai #generatywnaSztucznaInteligencja #generowanieobrazów #gpt4o #normalizingflows #OpenAI #starflow #sztucznaInteligencja #sztucznainteligencja #tarflow #technologia #transformerai

Siêu Phẩm Công Nghệ: AI “Thần Sức” Trên iPhone, iPad & Apple Watch – Khám Phá Ngay! #AIApple #AppleAI #CôngNghệMới #iPhone #iPad #AppleWatch #AnNinhThuDo

Siêu Phẩm Công Nghệ: AI "Thần Sức" Trên iPhone, iPad & Apple Watch - Khám Phá Ngay! #AIApple #AppleAI #CôngNghệMới #iPhone #iPad #AppleWatch #AnNinhThuDo Tổng hợp các tính năng AI mới nhất trên thiết bị Apple – Chuyên trang An Ninh Thủ Đô Thế giới công nghệ đang chứng kiến sự bùng nổ của trí tuệ nhân tạo (AI), và…

https://bietduoc.io.vn/2025/06/19/sieu-pham-cong-nghe-ai-than-suc-tren-iphone-ipad-apple-watch-kham-pha-ngay-aiapple-appleai-congnghemoi-iphone-ipad-applewatch-anninhthudo/

Siêu Phẩm Công Nghệ: AI “Thần Sức” Trên iPhone, iPad & Apple Watch – Khám Phá Ngay! #AIApple #AppleAI #CôngNghệMới #iPhone #iPad #AppleWatch #AnNinhThuDo

1. Trợ lý ảo Siri thông minh hơn bao giờ hết: Siri, trợ lý ảo quen thuộc của Apple, đã được nâng cấp đáng kể nhờ AI. Khả năng hiểu và phản hồi ngôn ngữ tự

Queen Mobile

Apple wyciąga wnioski i twierdzi, że zaprezentowana rok temu Siri 2 faktycznie działała

Po WWDC 2025 przedstawiciele Apple – Craig Federighi i Greg Joswiak – udzielają wywiadów mediom. W rozmowie z „The Wall Street Journal” potwierdzili, że pokazana rok temu spersonalizowana Siri była działającym oprogramowaniem, a nie tzw. „demoware”. Co to znaczy i dlaczego zatem nadal jej nie ma?

To było prawdziwe działające oprogramowanie, z dużym modelem językowym i semantycznym wyszukiwaniem.

— zapewnił Federighi. Joswiak dodał:

To nie był tylko pokaz.

Opóźnienie wdrożenia nowych funkcji tłumaczą problemami z jakością oraz przejściem na nową architekturę Siri, która ma poprawić działanie systemu w przyszłości.

Z drugiej strony — co mają powiedzieć?

W innej rozmowie podczas WWDC25, Craig Federighi ujawnił, dlaczego obiecane w 2024 roku spersonalizowane funkcje Siri wciąż nie zostały udostępnione:

  • Pierwotna architektura Siri okazała się zbyt ograniczona, by spełnić wysokie standardy jakości Apple.
  • Na początku 2025 roku firma zdecydowała się przebudować Siri od podstaw, wdrażając tzw. architekturę drugiej generacji.
  • To spowodowało opóźnienie o co najmniej rok.

Greg Joswiak potwierdził, że funkcje mają się pojawić dopiero wiosną 2026 roku, najprawdopodobniej w aktualizacji iOS 26.4.

Co miała oferować nowa Siri:

  • lepsze rozumienie kontekstu osobistego,
  • świadomość tego, co użytkownik widzi na ekranie,
  • głębszą integrację z aplikacjami systemowymi (np. odczytanie maila z informacją o locie matki).

Apple spotkało się z pozwami zbiorowymi w USA i Kanadzie za niewywiązanie się z wcześniejszych zapowiedzi.

Podsumowanie

Na WWDC 2025 Apple zaprezentowało znacznie ostrożniejsze podejście do zapowiedzi nowych funkcji. Po krytyce związanej z opóźnieniami spersonalizowanej Siri i systemu CarPlay Ultra, firma zmieniła strategię komunikacji – praktycznie zniknęły obietnice funkcji „dostępnych później w tym roku”.

Nowe funkcje, takie jak wsparcie językowe dla Apple Intelligence, były wcześniej zapowiedziane, a to sugeruje, że większość nowości trafi do użytkowników już we wrześniu, wraz z premierą iOS 26 – bez konieczności czekania na wersje 26.1 czy 26.2.

Apple zdaje się unikać ryzykownych obietnic i skupia się na bardziej realistycznym harmonogramie wdrożeń – co może odbudować zaufanie użytkowników po wcześniejszych wpadkach.

Czego nie pokazano podczas WWDC 2025 – część 1

#aiApple #Apple #AppleIntelligence #carplayUltra #CraigFederighi #GregJoswiak #iOS26 #noweFunkcjeApple #opóźnieniaApple #premieryApple #Siri #Siri2025 #spersonalizowanaSiri #strategiaApple #sztucznaInteligencjaApple #WWDC2024 #WWDC2025

Apple stawia na sztuczne dane do trenowania AI – co to oznacza dla Apple Intelligence?

Apple nadrabia zaległości w wyścigu AI, inwestując w synthetic data, czyli sztucznie generowane dane wykorzystywane do trenowania modeli językowych. Jak ujawnia Bloomberg, Apple korzysta zarówno z licencjonowanych zbiorów danych, jak i danych syntetycznych, które tworzy samodzielnie.

Nowa aktualizacja oprogramowania pozwala iPhone’om tworzyć tysiące sztucznych e-maili na urządzeniu. Dane te są lokalnie porównywane z rzeczywistymi wiadomościami użytkownika, ale do Apple trafiają jedynie anonimowe sygnały – zgodnie z zasadami prywatności.

Wykorzystanie sztucznych danych nie jest nowością – z powodzeniem stosują je OpenAI, Microsoft (np. model Phi-4 – 55% syntetycznych danych), czy Meta. Dzięki synthetic data inżynierowie mogą tworzyć idealnie opisane, bezpieczne dane, obejmujące rzadkie przypadki i przyspieszające proces trenowania AI.

Choć krytycy obawiali się efektu „błędnego koła” AI uczącej się na danych generowanych przez inną AI, badania i praktyka pokazują, że odpowiednio dobrana syntetyczna treść może poprawiać jakość modeli, np. zmniejszając halucynacje.

Dla Apple to szansa:

  • przyspieszyć rozwój Apple Intelligence,
  • poprawić Siri,
  • wesprzeć obsługę wielu języków
  • obniżyć zapotrzebowanie na GPU.

To wszystko bez naruszania prywatności użytkowników.

#AI #aiApple #AppleAI2025 #AppleGPT #AppleIntelligence #AppleIPhoneAI #ApplePrywatnośćAI #AppleVsOpenAI #daneSyntetyczneAI #modeleJęzykoweApple #SiriAI #SiriPrzyszłość #syntheticDataApple #sztucznaInteligencjaIOS #trenowanieAI

Gurman: Siri nie będzie głównym tematem WWDC 2025

Według Marka Gurmana z Bloomberga, podczas czerwcowego WWDC 2025 Apple nie poświęci wiele uwagi Siri – mimo wcześniejszych zapowiedzi rozbudowy jej możliwości w ramach Apple Intelligence. Powodem mają być wewnętrzne opóźnienia i strategiczne błędy kierownictwa Apple.

Craig Federighi, szef działu oprogramowania, przez długi czas nie traktował sztucznej inteligencji jako priorytetu. Jego sceptycyzm podzielali również inni liderzy w firmie. Mimo prób przekonania zarządu do większych inwestycji w AI, wiele inicjatyw zostało zablokowanych lub opóźnionych.

Gurman informuje, że Apple pracuje nad nową wersją Siri opartą o LLM (duże modele językowe), jednak firma chce oddzielić markę „Apple Intelligence” od Siri, której reputacja osłabia komunikację marketingową. Co więcej, Apple nie chce już zapowiadać funkcji, które nie są gotowe do premiery w ciągu kilku miesięcy.

Wśród planowanych nowości znalazły się:

  • narzędzie do optymalizacji baterii oparte na AI,
  • wirtualny trener zdrowia „Project Mulberry”,
  • możliwość zastąpienia Siri innym asystentem głosowym w UE (niezależnie od integracji z ChatGPT).

Choć zmiany są w toku, na rewolucję w Siri trzeba jeszcze poczekać – nawet do 2026 roku.

WWDC25 – jest oficjalne ogłoszenie dotyczące wydarzenia

#aiApple #Apple #AppleIntelligence #asystentGłosowy #iOS19 #MarkGurman #optymalizacjaBateriiAI #plotka #Plotki #ProjectMulberry #Siri #SiriLLM #SiriUE #WWDC2025

iOS 19: Apple Intelligence może trafić do Kalendarza dzięki przejęciu Mayday

Zgodnie z dokumentacją opublikowaną przez UE, Apple przejęło firmę Mayday Labs Inc. w kwietniu 2024 roku. To właśnie ta akwizycja może stać za pierwszymi funkcjami Apple Intelligence w aplikacji Kalendarz, które pojawią się już w iOS 19.

Mayday to aplikacja, która łączyła kalendarz, listę zadań i inteligentnego asystenta. Jej technologie pozwalały m.in. na:

  • automatyczne planowanie spotkań i zadań,
  • inteligentne dostosowanie harmonogramu do priorytetów użytkownika,
  • dynamiczne zmiany w kalendarzu z uwzględnieniem przesunięć terminów,
  • generowanie linków do planowania spotkań z pomocą AI.

Choć Apple nie potwierdziło jeszcze, że technologia Mayday trafi do Kalendarza, jest to bardzo prawdopodobne — zwłaszcza że aplikacja została oficjalnie zamknięta w maju 2024 roku. Dodatkowo, Kalendarz to jedno z ostatnich większych narzędzi Apple, które nie otrzymało jeszcze funkcji opartych o AI.

Część rozwiązań Mayday może również znaleźć zastosowanie w nowej wersji Siri, która będzie lepiej rozumieć harmonogram użytkownika.

Google Gemini może zostać zintegrowany z iOS 19 – rozmowy trwają

#aiApple #AppleAI #AppleIntelligence #appleKalendarz #appleKalendarzAi #applePrzejęcia #appleSiri #funkcjeIos19 #inteligentnePlanowanie #iOS19 #ios2025 #kalendarzIos #maydayApple #nowościIOS #plotka #Plotki #sztucznaInteligencjaApple

iOS 19 | iMagazine