MOVA idzie dalej niż roboty sprzątające. Asystent AI przypinany do smartfona i głośniki na start

Marka MOVA, znana do tej pory na polskim rynku z produkcji zaawansowanych urządzeń do utrzymania czystości, wykonuje zwrot w swojej strategii.

Firma wkracza w zupełnie nową dla siebie kategorię, wprowadzając inteligentny dyktafon napędzany sztuczną inteligencją oraz linię plenerowych głośników Bluetooth. Zdejmujemy warstwę marketingu i sprawdzamy, co dokładnie trafiło na półki.

Asystent AI w formacie karty kredytowej

Zdecydowanie najciekawszym elementem nowej oferty jest MOVA TPEAK AI Note. To nie jest zwykły dyktafon. Urządzenie ma zaledwie 2,89 mm grubości (odpowiada to trzem kartom kredytowym) i waży skromne 28 gramów. Zamiast nosić je w kieszeni, doczepia się je magnetycznie bezpośrednio do pleców smartfona.

Sprzęt zasila bateria o pojemności 130 mAh, co według specyfikacji pozwala na 24 godziny ciągłego nagrywania. Dyktafon wspiera również standard bezprzewodowego ładowania Qi, co umożliwia awaryjne zasilanie go prosto z telefonu (jeśli ten posiada funkcję ładowania zwrotnego).

Prawdziwa potęga tego gadżetu kryje się jednak w oprogramowaniu zintegrowanym z modelami językowymi (w tym ChatGPT). Możliwości asystenta można podzielić na dwa główne bloki:

  • Nagrywanie:
    • Automatyczny start i zatrzymywanie zapisu po wykryciu głosu.
    • Samodzielne rozpoznawanie kontekstu (rozmowa telefoniczna vs spotkanie na żywo).
    • Rozróżnianie od 3 do 5 mówców podczas jednego nagrania.
  • Analiza i przetwarzanie:
    • Konwersja mowy na tekst w czasie rzeczywistym (transkrypcja).
    • Tłumaczenie rozmów na żywo.
    • Generowanie zwięzłych podsumowań spotkań na podstawie szablonów.
    • Tworzenie map myśli.

Transfer plików między dyktafonem a telefonem odbywa się przez dwupasmowe Wi-Fi, co pozwala na błyskawiczne zgranie materiału. Jak deklaruje producent, przesłanie godzinnego nagrania zajmuje około 10 sekund.

Dźwięk na plener. Synchronizacja do 100 głośników

Drugim filarem dzisiejszej premiery jest sprzęt audio. Producent pokazał dwa nowe głośniki bazujące na najnowszym standardzie Bluetooth V6.0. Kluczową nowością jest tu wsparcie dla funkcji Stereo Mode, pozwalającej na bezprzewodową synchronizację nawet do 100 głośników jednocześnie.

MOVA TPEAK S1 Mini: kompaktowy, outdoorowy głośnik z 45-milimetrowym przetwornikiem o mocy 6W. Posiada certyfikat odporności na pył i wodę IP67. Ogniwo o pojemności 2000 mAh wystarcza na 25 godzin odtwarzania muzyki. Obsługuje także bezpośrednie odtwarzanie z kart microSD (TF) i tryb karty dźwiękowej pod USB-C.

MOVA TPEAK S1: większy, 20-watowy model wykorzystujący przetwornik z potrójną membraną. Jego wyróżnikiem jest wbudowany pierścień RGB z pięcioma trybami podświetlenia pulsującego w rytm muzyki. Bateria zapewnia do 8 godzin pracy, a konstrukcja posiada certyfikat wodoodporności IPX7.

Ceny i dostępność w Polsce

MOVA od razu wrzuca sprzęt do największych polskich sieci handlowych (m.in. RTV Euro AGD, Media Expert czy Komputronik) oraz na platformę Allegro. Od 1 do 26 kwietnia 2026 roku obowiązują ceny promocyjne:

  • MOVA TPEAK AI Note: sugerowana cena 649 zł (w promocji taniej nawet o 31%).
  • MOVA TPEAK S1: sugerowana cena 299 zł (w promocji do 30% taniej).
  • MOVA TPEAK S1 Mini: sugerowana cena 169 zł (w promocji do 30% taniej).

O ile na rynku taniego audio konkurencja jest gigantyczna, to dyktafon AI doczepiany na magnes prezentuje się jako niezwykle praktyczne narzędzie. Przy cenie promocyjnej wynoszącej około 450 zł to gadżet, obok którego żaden student, dziennikarz czy pracownik spędzający życie na spotkaniach nie przejdzie obojętnie – o ile oczywiście realne działanie sprzętu dorówna obietnicom producenta.

MOVA idzie na całość: robot-kosiarka jak czołg i ponad 200 narzędzi w jednym systemie [galeria]

#asystentAI #ChatGPT #dyktafonAI #głośnikBluetooth #MOVA #nowościTechnologiczne #smartHome #sztucznaInteligencja #TPEAKAINote #TPEAKS1 #TPEAKS1Mini

Mała, ale kluczowa zmiana. Google nareszcie ułatwi nawigację w NotebookLM

Niedawno pisaliśmy o potężnej, płatnej funkcji „Cinematic Video Overviews” w NotebookLM. Okazuje się jednak, że Google przygotowuje również mniejsze, ale niezwykle praktyczne ulepszenia interfejsu, które znacząco ułatwią życie użytkownikom bezpłatnej wersji tego narzędzia.

Popularność NotebookLM rośnie w niesamowitym tempie. Problem polega na tym, że osoby intensywnie korzystające z tego asystenta badawczego szybko gromadzą na swoim koncie dziesiątki różnych projektów (notatników). Do tej pory interfejs usługi był pod tym względem dość spartański – znalezienie starszego dokumentu w zakładce „Moje notatniki” wymagało żmudnego, ręcznego przewijania strony głównej.

Jak donosi branżowy informator ukrywający się pod pseudonimem TestingCatalog, inżynierowie z Mountain View zamierzają wreszcie rozwiązać ten problem. W przygotowaniu są dwie użyteczne nowości:

  • Wyszukiwarka notatników: na ekranie głównym NotebookLM pojawi się dedykowany przycisk wyszukiwania. Zamiast przewijać ich listę, wystarczy wpisać kilka pierwszych liter tytułu projektu, aby natychmiast go wywołać.
  • Przypinanie projektów: to rozwiązanie doskonale znane z komunikatorów internetowych. Użytkownicy otrzymają możliwość przypinania najważniejszych lub aktualnie edytowanych notatników na samej górze ekranu głównego. Dzięki temu kluczowe materiały będą zawsze pod ręką.

Brak tak podstawowych funkcji w tak zaawansowanym narzędziu opartym na sztucznej inteligencji był dotąd sporym niedopatrzeniem. Obie funkcje znajdują się obecnie w fazie rozwoju. Biorąc pod uwagę ich czysto użytkowy charakter, można bezpiecznie założyć, że trafią one do wszystkich użytkowników usługi za darmo, w przeciwieństwie do zaawansowanych funkcji wideo zablokowanych za paywallem subskrypcji AI Ultra.

NotebookLM wchodzi na wyższy poziom. Google prezentuje kinowe podsumowania wideo

#asystentAI #funkcjeNotebookLM #GoogleNotebookLM #interfejsAI #NotebookLMAktualizacja #sztucznaInteligencjaGoogle #wyszukiwarkaWNotebookLM

Gemini przejmie kontrolę nad aplikacjami w Androidzie

Wraz z premierą nowej generacji flagowców (serii Galaxy S26 i Pixel 10), Google zapowiedziało potężną nowość: automatyzację zadań przez sztuczną inteligencję.

Teraz firma odkrywa karty i tłumaczy, jak to działa od zaplecza. Magia opiera się na dwóch filarach: nowym API o nazwie „AppFunctions” oraz bezpośredniej automatyzacji interfejsu.

Najważniejsze nowości i ceny Samsung Galaxy S26 Ultra [wideo]

Z założenia asystenci AI, tacy jak Gemini, mają przestać być tylko inteligentnymi wyszukiwarkami, a stać się cyfrowymi agentami (agentic AI), którzy wykonują za nas pracę wewnątrz aplikacji firm trzecich. Google podzieliło się właśnie technicznymi szczegółami tego rozwiązania. Zmiana paradygmatu w ekosystemie Androida będzie realizowana na dwa sposoby.

AppFunctions, czyli API dla sztucznej inteligencji

Pierwsze i najbardziej eleganckie rozwiązanie to wbudowana w Androida 16 (oraz powiązaną bibliotekę Jetpack) funkcja „AppFunctions”. Pozwala ona deweloperom na wystawienie konkretnych możliwości ich aplikacji bezpośrednio dla asystentów AI. Google porównuje ten system do popularnego protokołu MCP (Model Context Protocol) używanego na serwerach, z tą różnicą, że AppFunctions działa całkowicie lokalnie na urządzeniu, co gwarantuje prywatność i bezpieczeństwo danych.

Jak to wygląda w praktyce? Jeśli użytkownik powie: „Znajdź przepis na makaron w mailach od Anny i dodaj składniki do mojej listy zakupów”, Gemini wykorzysta AppFunctions do uruchomienia ukrytego procesu. Najpierw przeszuka aplikację pocztową, odszuka właściwy wątek korespondencji, wyciągnie z niego tekst, a następnie wywoła funkcję aplikacji z listą zakupów, aby automatycznie dodać tam odpowiednie produkty – a to wszystko bez ręcznego otwierania tych programów przez użytkownika.

Google potwierdziło, że system ten debiutuje właśnie na Samsungach Galaxy S26 (wymaga nakładki OneUI 8.5 lub nowszej). Umożliwia to m.in. wywołanie komendy: „Pokaż mi zdjęcia mojego kota z Samsung Gallery”. Gemini samo przeszuka galerię i wyświetli zdjęcia w swoim własnym oknie czatu, skąd można je od razu wysłać znajomym.

UI Automation: brutalna siła dla opornych aplikacji

Google zdaje sobie jednak sprawę, że zanim wszyscy deweloperzy wdrożą u siebie nowe API, miną lata. Dlatego Android zyskał również drugi mechanizm: automatyzację interfejsu użytkownika (UI automation).

To rozwiązanie zostało zaprezentowane podczas dzisiejszych premier Pixela 10 i Galaxy S26. Jeśli aplikacja nie obsługuje natywnie AppFunctions, platforma i tak poradzi sobie z zadaniem. Sztuczna inteligencja wizualnie analizuje interfejs otwartej aplikacji i fizycznie „klika” w odpowiednie przyciski, symulując ruchy użytkownika.

Dla deweloperów oznacza to, że ich aplikacje zyskają wsparcie dla automatyzacji Gemini przy zerowym nakładzie pracy inżynieryjnej. Google zapowiada, że technologia ta zostanie jeszcze mocniej rozwinięta i zintegrowana z systemem wraz z premierą Androida 17.

Co to oznacza dla polskich użytkowników?

Od strony technologicznej mechanizmy te są głęboko zaszyte w systemie i nie posiadają twardych blokad regionalnych. Prawdziwym testem dla polskich użytkowników będzie jednak bariera językowa. Złożone przepływy pracy (tzw. workflows) wymagają od modelu AI doskonałego zrozumienia intencji użytkownika. Zanim polskojęzyczne Gemini nauczy się bezbłędnie interpretować komendy wymagające przeskakiwania między trzema różnymi aplikacjami, prawdopodobnie będziemy zmuszeni do posiłkowania się językiem angielskim.

Nowy Google Pixel 10 Pro – pierwsze wrażenia

#AppFunctionsAndroid16 #asystentAI #cyfrowyAgentAI #GeminiAutomatyzacja #GooglePixel10Automatyzacja #ModelContextProtocolAndroid #SamsungGalaxyS26Gemini #UIAutomationAndroid

🆕mObywatel stawia na sztuczną inteligencję! Asystent AI już dostępny dla wszystkich
➡️https://rootblog.pl/mobywatel-stawia-na-sztuczna-inteligencje/

#AsystentAI #mObywatel #SztucznaInteligencja

Koniec irytującego znikania. Gemini na Androidzie wreszcie pozwoli na prawdziwy multitasking

Ile razy zdarzyło Ci się poprosić asystenta AI o napisanie maila, tylko po to, by stracić całą treść po przypadkowym tapnięciu w tło? Google wreszcie naprawia największą wadę interfejsu Gemini na Androidzie.

Do tej pory korzystanie z Gemini jako nakładki na system przypominało stąpanie po cienkim lodzie. Wystarczył jeden fałszywy ruch – dotknięcie ekranu poza oknem asystenta – by Gemini się zamykało, zabierając ze sobą całą konwersację. Chciałeś sprawdzić coś w innej aplikacji w trakcie generowania odpowiedzi? Zapomnij.

Pływający przycisk ratuje sytuację

Jak donosi Android Authority (powołując się na analizę kodu beta wersji aplikacji Google), nadchodzi rozwiązanie. Zamiast znikać bez śladu, zminimalizowane okno Gemini zamieni się w mały, pływający przycisk (FAB; floating action button) przy krawędzi ekranu.

To zmienia zasady gry. Dlaczego? Bo daje użytkownikowi szereg korzyści:

  • Ciągłość pracy: możesz zlecić Gemini skomplikowane zadanie, zminimalizować je, popracować w innej apce i wrócić do gotowego wyniku jednym tapnięciem.
  • Kontekst: możesz skakać między aplikacjami, kopiując dane potrzebne do promptu, bez resetowania sesji.
  • Wygoda: dopiero gdy skończysz, przesuwasz przycisk do krawędzi (gest swipe), by zamknąć asystenta całkowicie.

Google szykuje się na rok 2026

Ta zmiana to element większej układanki. Google potwierdziło już, że w 2026 roku Gemini całkowicie zastąpi klasycznego Asystenta Google. Aby to się udało bez buntu użytkowników, AI musi działać w tle tak płynnie, jak stary dobry Asystent, a nie blokować cały ekran.

W połączeniu z niedawną premierą lżejszego modelu Gemini 3 Flash, Google wyraźnie czyści przedpole przed nowym rokiem, usuwając irytujące „choroby wieku dziecięcego” swojej sztucznej inteligencji.

Gemini 3 Flash: to nie jest wersja „Lite”. W kodowaniu bije nawet wersję Pro

#aktualizacja #Android #asystentAI #Gemini #Google #GoogleApp #multitasking

Google ulepsza mapy w Gemini. Asystent zyskuje bogatsze, wizualne odpowiedzi w wersji angielskiej

Google aktualizuje sposób, w jaki jego sztuczna inteligencja prezentuje wyniki lokalizacyjne.

Do tej pory integracja Gemini z Google Maps ograniczała się często do tekstu i prostych linków. Nowa wersja, wdrażana obecnie dla języka angielskiego, stawia na format graficzny i użyteczne podsumowania.

Firma z Mountain View zmienia interfejs odpowiedzi w swoim asystencie AI. Zgodnie z zapowiedziami, zamiast tekstowych opisów z mapą ukrytą na końcu, Gemini zaczyna prezentować wyniki w sposób zbliżony do natywnej aplikacji Map.

Kluczową zmianą jest wprowadzenie interaktywnych kart lokalizacji. Oprócz standardowej mapy z nowymi, tematycznymi pinezkami, asystent wyświetla zdjęcia miejsc oraz ich oceny.

Nowością są generowane przez AI podsumowania opinii. Gemini analizuje recenzje użytkowników i wyciąga z nich najważniejsze wątki (np. „O czym ludzie mówią najczęściej”) oraz praktyczne wskazówki, co pozwala na szybszą ocenę miejsca bez konieczności ręcznego przeglądania setek komentarzy.

Aktualizacja jest obecnie wdrażana dla aplikacji mobilnej i wersji desktopowej w języku angielskim. Nie wiemy jeszcze, czy rozwiązanie to pojawi się również w innych wersjach językowych, niemniej bazując na dotychczasowej polityce wdrożeń Google, należy tego oczekiwać po pewnym czasie.

Google stanowczo: „Nie mamy planów na reklamy w Gemini”. To zupełnie inna droga niż OpenAI

#aktualizacjaGoogle #asystentAI #GoogleGemini #googleMaps #news #sztucznaInteligencja

Google Gemini i AI w święta – zorganizuj przyjęcie bez stresu

Masz wrażenie, że święta to maraton z listą zadań dłuższą niż kolejka do karpia? Co, jeśli część tego chaosu da się oddać w outsourcing – algorytmowi?

Czytaj dalej:
https://pressmind.org/google-gemini-i-ai-w-swieta-zorganizuj-przyjecie-bez-stresu/

#PressMindLabs #asystentai #gem #googlegemini #planowanieprzyjec #swieta

Google wprowadza AI do organizacji świąt – nowy sposób na przyjęcia

Czy można zorganizować święta i nie osiwieć? Google mówi: tak – o ile pozwolisz, by AI zagrała rolę współgospodarza.

Czytaj dalej:
https://pressmind.org/google-wprowadza-ai-do-organizacji-swiat-nowy-sposob-na-przyjecia/

#PressMindLabs #asystentai #gemini #gems #google #organizacjaswiat

Comet na Androida – mobilna przeglądarka myśląca jak asystent AI

Czy mobilna przeglądarka powinna umieć nie tylko otwierać karty, ale też myśleć, streszczać i działać za nas? Perplexity uważa, że tak – i właśnie przenosi ten pomysł na Androida.

Czytaj dalej:
https://pressmind.org/comet-na-androida-mobilna-przegladarka-myslaca-jak-asystent-ai/

#PressMindLabs #android #asystentai #chrome #comet

Mała zmiana w Gemini, która wiele ułatwia. Koniec z komendami typu @YouTube i @Mapy

Google wprowadza istotną aktualizację swojego asystenta AI, Gemini, która ma na celu uczynienie rozmów z nim bardziej naturalnymi.

Z interfejsu znikają specjalne komendy wywołujące aplikacje, takie jak „@Google Maps” czy „@YouTube”. Nie oznacza to jednak usunięcia funkcji, a ich pełną, automatyczną integrację.

Dotychczas, aby zadać Gemini pytanie dotyczące konkretnej usługi Google, użytkownicy musieli korzystać ze specjalnego znacznika „@”, podobnie jak w innych narzędziach AI, aby aktywować odpowiednie rozszerzenie. Przykładowo, trzeba było wpisać „@YouTube znajdź film o…” lub „@Google Maps podaj trasę do…”. Teraz ten wymóg znika.

Jak nie dać się oszukać w sieci? 6 nowości od Google, które chronią Twoje dane i konto

Zmiana polega na tym, że Gemini ma być na tyle inteligentne, by samodzielnie zrozumieć intencje użytkownika na podstawie kontekstu pytania. Zamiast wpisywać komendę, wystarczy teraz zapytać w naturalny sposób, np. „Gdzie jest najbliższa kawiarnia i o której się otwiera?” lub „Pokaż mi loty do Tokio i zaproponuj, co można tam robić”. Gemini automatycznie rozpozna, że ma skorzystać z danych Map, Lotów czy YouTube, aby udzielić odpowiedzi.

Zniknięcie znaczników „@” z pola podpowiedzi to świadoma decyzja projektowa. Google chce, aby użytkownicy wchodzili w interakcję z AI w sposób płynny i konwersacyjny, bez konieczności zastanawiania się, którą „wtyczkę” należy w danym momencie aktywować. To krok w stronę uczynienia z Gemini bardziej zintegrowanego asystenta, a mniej technicznego narzędzia.

Warto również zauważyć, że sama nazwa tych integracji uległa zmianie. Dotychczasowa sekcja „Rozszerzenia” (Extensions) w ustawieniach Gemini została przemianowana na „Połączone aplikacje” (Connected Apps). Wciąż znajdują się tam kluczowe usługi, takie jak Google Workspace (Kalendarz, Dysk, Gmail), Google Photos, czy YouTube Music, co pokazuje, jak głęboko asystent jest zintegrowany z całym ekosystemem.

Google prezentuje Veo 3.1. Lepszy dźwięk i edycja w wideo generowanym przez AI

#AI #aktualizacja #asystentAI #Gemini #Google #googleMaps #interfejs #news #PołączoneAplikacje #sztucznaInteligencja #YouTube