Już domyślamy się, po co Apple wydało 2 mld dolarów. Okulary z Siri mogą „przeczytać” nasze słowa z mikroruchów twarzy

Meta Ray-Ban to świetny gadżet, ale nikt nie chce rozmawiać ze sztuczną inteligencją na głos w zatłoczonym autobusie czy w biurze.

Z najnowszych przecieków Bloomberga wynika, że Apple mocno przyspiesza prace nad własnymi inteligentnymi okularami. I tu wszystkie kropki zaczynają się łączyć – kluczem do ominięcia największej wady inteligentnych okularów może być technologia, o której zaledwie trzy tygodnie temu mówił Wojtek Pietrusiewicz w naszym Raporcie Wideo.

Jeżeli śledzicie plotki ze świata Apple, z pewnością wiecie, że firma od dawna marzy o opanowaniu naszych twarzy. Choć Vision Pro to technologiczny cud, jest on sprzętem niszowym. Jak donosi Mark Gurman z Bloomberga, w laboratoriach w Cupertino właśnie zapadła decyzja o znacznym przyspieszeniu prac nad trzema nowymi urządzeniami ubieralnymi (wearables): inteligentnym wisiorkiem, słuchawkami AirPods wyposażonymi w kamery oraz – co najważniejsze – inteligentnymi okularami AI, będącymi bezpośrednią odpowiedzią na hitowe okulary Mety i Ray-Bana. Tylko jak Apple zamierza pokonać największy problem tego typu urządzeń?

Pierwsze wrażenia z Meta Ray-Ban Wayfarer – rób zdjęcia, wideo lub livestreamuj

Bariera wstydu, czyli dlaczego nie gadamy do okularów

Okulary Meta Ray-Ban to sprzedażowy hit końca 2023 i początku 2024 roku. Mają świetne kamery, dobre głośniki i zintegrowanego asystenta Meta AI, który może analizować to, na co właśnie patrzymy. Problem polega na tym, że na co dzień ta ostatnia funkcja jest niemal bezużyteczna.

Powód jest prozaiczny: bariera społeczna. Zdecydowana większość z nas czuje się bardzo niekomfortowo, wydając na głos komendy maszynie w przestrzeni publicznej. Pytanie asystenta na ulicy, w kawiarni czy w komunikacji miejskiej przyciąga niechciane spojrzenia i po prostu bywa krępujące. Nawet szept jest często zbyt głośny (lub niewyraźny dla mikrofonów w hałaśliwym otoczeniu).

Rozwiązaniem tego problemu nie jest lepszy mikrofon. Rozwiązaniem jest interfejs, który pozwala „rozmawiać” w całkowitej ciszy.

Połączmy kropki: raport wideo i akwizycja Q.ai

Na początku lutego na naszym kanale YouTube opublikowaliśmy Raport Wideo, w którym Wojtek Pietrusiewicz wziął na tapet bardzo ciche, ale potężne przejęcie, jakiego dokonało Apple. Gigant zapłacił 2 miliardy dolarów za startup o nazwie Q.ai.

Jak tłumaczył Wojtek w materiale, firma ta nie zajmuje się po prostu polepszaniem rozpoznawania mowy. Q.ai to specjaliści od silent voice input (bezgłośnego wprowadzania głosu) oraz systemów uczenia maszynowego potrafiących odczytywać mikroruchy mięśni twarzy. Krótko mówiąc: to technologia, która rozumie to, co mówisz, nawet jeśli z Twoich ust nie wydobywa się żaden dźwięk. Wystarczy sama praca aparatu mowy.

Siri, która czyta z twarzy

Teraz, w świetle najnowszych raportów o przyspieszeniu prac nad okularami, przejęcie Q.ai nabiera zupełnie nowego, potężnego sensu. Apple nie potwierdziło jeszcze, do jakiego konkretnego produktu trafi ta technologia, ale analitycy rynku niemal jednogłośnie wskazują na przyszłe urządzenia ubieralne.

Wiele wskazuje na to, że to nie był zakup wyłącznie z myślą o ulepszaniu Siri w iPhonie. Może to być fundament pod przyszłe Apple Glasses. Wyobraźcie to sobie: macie na nosie okulary od Apple. Sensory umieszczone w zausznikach (bezpośrednio przylegających do kości i mięśni twarzy) rejestrują minimalne, neuromięśniowe impulsy lub mikroruchy szczęki. Chcecie zapytać asystenta, do jakiego budynku właśnie podchodzicie, albo podyktować krótką odpowiedź na wiadomość z iMessage. Po prostu „wypowiadacie” te słowa pod nosem – zupełnie bezgłośnie. Asystent rozumie komendę i szepcze Wam odpowiedź bezpośrednio do ucha przez kierunkowe głośniki.

Pełna dyskrecja, zero niezręczności i gigantyczny skok komfortu w przestrzeni publicznej.

Apple po raz kolejny nie będzie pierwsze. Meta już pokazała, że inteligentne okulary z aparatem mają sens. Ale to firma Tima Cooka – kupując startup taki jak Q.ai za gigantyczne pieniądze – może jako pierwsza wyeliminować największy zgrzyt user experience (doświadczenia użytkownika), który powstrzymywał tę kategorię sprzętu przed staniem się prawdziwie masową.

Jeśli jeszcze nie widzieliście materiału Wojtka, gorąco polecamy nadrobić zaległości – to świetny przykład tego, jak pozornie suche informacje finansowe z początku miesiąca pomagają wyobrazić sobie gadżety, które za chwilę będziemy nosić na nosie.

#AppleGlasses #bezgłośneKomendyGłosowe #MetaRayBanKonkurencja #nowościAppleWearables #okularyAIApple #okularyApple #QAi #silentVoiceInput #WojtekPietrusiewiczRaport

Specjalne, dwudniowe wydarzenie „Meet with Apple”

Apple zorganizowało specjalne, dwudniowe wydarzenie „Meet with Apple” w swoim Centrum Deweloperskim w Cupertino, skupione na możliwościach nowego Vision Pro z Apple M5 i systemu visionOS 26.

W trakcie sesji pokazano, jak tworzyć treści Apple Immersive Video, projektować interakcje przestrzenne oraz wykorzystywać funkcje takie jak SharePlay i Spatial Personas.

Pierwszy dzień poświęcono projektowaniu angażujących, interaktywnych historii w środowisku przestrzennym. Drugiego dnia uczestnicy poznali tajniki Apple Immersive Video i Spatial Audio, ucząc się tworzyć nowoczesne doświadczenia medialne.

Oficjalne zaproszenie Apple brzmi tak:

Podczas transmisji na żywo pierwszego dnia pokażemy, jak system visionOS 26 może pomóc w tworzeniu wciągających i interaktywnych historii. Dowiesz się, jak wykorzystać swoje kreatywne pomysły w formatach takich jak Apple Immersive Video, oraz zapoznasz się z przykładami z rzeczywistych produkcji. Odkryjesz, jak projektować interakcje przestrzenne i opowiadać historie, które angażują odbiorców w Twoje doświadczenia. Dowiesz się również, jak korzystać z funkcji SharePlay i przestrzennych person, aby pomóc ludziom nawiązać kontakt poprzez Twoje pomysły.

Drugiego dnia zagłębimy się w Apple Immersive Video i Apple Spatial Audio. Dowiesz się, jak tworzyć zupełnie nowe doświadczenia medialne, rozpocząć pracę z Apple Immersive Video, poznać nowe procesy produkcyjne i zapoznać się z poprzednimi produkcjami Apple Immersive.

Nagrania obu dni są dostępne na kanale Apple Developer w serwisie YouTube.

Przypomnijmy, że Vision Pro M5 zaprezentowano 15 października, a sprzedaż ruszyła 22 października 2025 roku.

Apple Vision Pro z Apple M5 zaprezentowany

#Apple #AppleDeveloper #AppleImmersiveVideo #AR #deweloperzy #MeetWithApple #okularyApple #rzeczywistośćRozszerzona #SharePlay #SpatialAudio #SpatialPersonas #technologia #VisionPro #VisionProM5 #visionOS26 #VR

Apple Vision Pro z Apple M5 zaprezentowany

Apple zaprezentowało nową wersję Apple Vision Pro, wyposażoną w potężny procesor Apple M5 i nowy, wygodniejszy Dual Knit Band.

Urządzenie oferuje znacznie lepszą wydajność, dłuższy czas pracy na baterii, ostrzejszy obraz i płynniejsze działanie. Nowy visionOS 26 wprowadza przestrzenne widżety, ulepszone Persony, środowisko Jupiter, obsługę Apple Intelligence w większej liczbie języków oraz nową generację aplikacji i treści Apple Immersive.

Apple M5, zbudowany w technologii 3 nm, zapewnia szybsze renderowanie obrazu, nawet 120 Hz odświeżania, a także 50% szybsze przetwarzanie zadań AI dzięki 16-rdzeniowemu Neural Engine. Vision Pro wyświetla teraz 10% więcej pikseli, oferując ostrzejszy tekst i bardziej realistyczne wizualizacje. Udoskoniona bateria działa do 2,5 godziny w trybie ogólnym i 3 godziny podczas oglądania wideo.

Nowy Dual Knit Band został zaprojektowany z myślą o komforcie — wykonany z elastycznej, trójwymiarowo tkanej tkaniny z wbudowanymi wkładkami z wolframu dla lepszego balansu i stabilności.

visionOS 26 otwiera przed użytkownikami zupełnie nowe doświadczenia przestrzenne — od obsługi filmów 180° i 360°, po współpracę z aplikacjami jak ChatGPT, FaceTime, Safari, Vimeo, HomeByMe, Balenciaga, czy Christie’s Select. W Apple Immersive pojawią się także nowe serie i transmisje sportowe, w tym mecze NBA.

Vision Pro z M5 dostępny będzie od 22 października 2025 w USA i kilku innych krajach, w tym we Francji, Niemczech, Japonii i Wielkiej Brytanii.

W Polsce nadal urządzenie nie jest dostępne.

#AppleImmersive #AppleIntelligence #AppleVisionPro2025 #AppleVisionProNowaWersja #DualKnitBand #M5Chip #okularyApple #spatialComputing #visionOS26 #VRApple

Apple pracuje nad siedmioma urządzeniami montowanymi na głowie

Analityk Ming-Chi Kuo ujawnił, że Apple rozwija co najmniej siedem urządzeń do noszenia na głowie.

Podobno Apple pracuje nad trzema urządzeniami z serii Vision i czterema wariantami smart okularów. Firma traktuje ten segment jako kluczowy trend przyszłości i zupełnie mnie to nie dziwi.

Harmonogram premier według Kuo:

  • Apple Vision Pro (Apple M5) – odświeżona wersja w 2025 r. + być może nowe mocowania i akcesoria.
  • Apple Vision Air – tańszy i lżejszy model (Q3 2027).
  • Apple Vision Pro 2. generacji – nowy design i procesor klasy Mac (2028).
  • Apple Glasses – pierwsze inteligentne okulary z AI i gestami (2027).
  • Apple XR Glasses – dwa modele z wbudowanym wyświetlaczem, jeden na 2028 r.

Kuo przewiduje, że Apple może zdominować rynek okularów smart dokładnie tak, jak Apple Watch zrobił to z rynkiem zegarków (ogółem, nie chodzi tylko o kategorię smar), zwiększając globalne dostawy do ponad 10 mln sztuk w 2027 r., mimo że inne marki będą próbowały zdobyć rynek wcześniej.

Od dawna powtarzam, że taki właśnie scenariusz wydaje mi się najbardziej prawdopodobny, a szerzej (także w kontekście nadchodzących w systemach Apple zmian) pisałem o tym w jednym z wydań mojego newslettera oraz opowiadałem w podcaście.

#Apple #AppleAR #AppleGlasses #AppleHeadset #AppleXR #MingChiKuo #noweProduktyApple #okularyApple #okularyAR #okularyInteligentne #plotkiApple2025 #rozszerzonaRzeczywistość #smartGlasses #technologiaNoszona #VisionAir #VisionPro

Apple tworzy nowe procesory dla Maców, serwerów AI i przyszłych urządzeń noszonych

Apple intensywnie pracuje nad nowymi procesorami dla przyszłych komputerów Mac i serwerów sztucznej inteligencji – donosi Bloomberg.

Układy scalone będą napędzać nie tylko kolejne generacje MacBooków, ale również system Apple Intelligence i nowe kategorie urządzeń.

Nowe generacje procesorów Apple Silicon, wg ich nazw kodowych, prezentują się następująco:

  • „Komodo” – prawdopodobnie Apple M6, następca tegorocznego Apple M5
  • „Borneo” – przyszły Apple M7
  • „Sotra” – jeszcze potężniejszy układ dla przyszłych Maców (Apple M7 Extreme)
  • „Baltra” – pierwszy Apple dedykowany serwerom AI, ma być gotowy do 2027 roku

Procesory „Baltra” będą dostępne w wersjach z podwójną, poczwórną i ośmiokrotnie większą liczbą CPU i GPU niż obecny M3 Ultra. Trafią do serwerów Apple przetwarzających zapytania związane z Apple Intelligence.

Apple rozwija też wyspecjalizowane procesory dla:

  • okularów inteligentnych, konkurujących z Meta Ray-Ban (Apple Glasses),
  • AirPods nowej generacji,
  • Apple Watch – z większym naciskiem na wydajność i AI.

Nowe procesory mają zapewnić Apple przewagę w wyścigu AI oraz na rynku urządzeń noszonych i komputerów klasy premium.

Jak Apple projektuje „długowieczność” – technologia, która działa dłużej

#AirPods #Apple #AppleAI #AppleIntelligence #AppleM6 #AppleM7 #AppleWatch #Baltra #Borneo #chipyApple #chipyDlaMac #Komodo #MacBook2025 #okularyApple #plotka #Plotki #serweryAI #smartGlasses #sztucznaInteligencjaApple #układyApple