Mała, ale kluczowa zmiana. Google nareszcie ułatwi nawigację w NotebookLM

Niedawno pisaliśmy o potężnej, płatnej funkcji „Cinematic Video Overviews” w NotebookLM. Okazuje się jednak, że Google przygotowuje również mniejsze, ale niezwykle praktyczne ulepszenia interfejsu, które znacząco ułatwią życie użytkownikom bezpłatnej wersji tego narzędzia.

Popularność NotebookLM rośnie w niesamowitym tempie. Problem polega na tym, że osoby intensywnie korzystające z tego asystenta badawczego szybko gromadzą na swoim koncie dziesiątki różnych projektów (notatników). Do tej pory interfejs usługi był pod tym względem dość spartański – znalezienie starszego dokumentu w zakładce „Moje notatniki” wymagało żmudnego, ręcznego przewijania strony głównej.

Jak donosi branżowy informator ukrywający się pod pseudonimem TestingCatalog, inżynierowie z Mountain View zamierzają wreszcie rozwiązać ten problem. W przygotowaniu są dwie użyteczne nowości:

  • Wyszukiwarka notatników: na ekranie głównym NotebookLM pojawi się dedykowany przycisk wyszukiwania. Zamiast przewijać ich listę, wystarczy wpisać kilka pierwszych liter tytułu projektu, aby natychmiast go wywołać.
  • Przypinanie projektów: to rozwiązanie doskonale znane z komunikatorów internetowych. Użytkownicy otrzymają możliwość przypinania najważniejszych lub aktualnie edytowanych notatników na samej górze ekranu głównego. Dzięki temu kluczowe materiały będą zawsze pod ręką.

Brak tak podstawowych funkcji w tak zaawansowanym narzędziu opartym na sztucznej inteligencji był dotąd sporym niedopatrzeniem. Obie funkcje znajdują się obecnie w fazie rozwoju. Biorąc pod uwagę ich czysto użytkowy charakter, można bezpiecznie założyć, że trafią one do wszystkich użytkowników usługi za darmo, w przeciwieństwie do zaawansowanych funkcji wideo zablokowanych za paywallem subskrypcji AI Ultra.

NotebookLM wchodzi na wyższy poziom. Google prezentuje kinowe podsumowania wideo

#asystentAI #funkcjeNotebookLM #GoogleNotebookLM #interfejsAI #NotebookLMAktualizacja #sztucznaInteligencjaGoogle #wyszukiwarkaWNotebookLM

Gemini przejmie kontrolę nad aplikacjami w Androidzie

Wraz z premierą nowej generacji flagowców (serii Galaxy S26 i Pixel 10), Google zapowiedziało potężną nowość: automatyzację zadań przez sztuczną inteligencję.

Teraz firma odkrywa karty i tłumaczy, jak to działa od zaplecza. Magia opiera się na dwóch filarach: nowym API o nazwie „AppFunctions” oraz bezpośredniej automatyzacji interfejsu.

Najważniejsze nowości i ceny Samsung Galaxy S26 Ultra [wideo]

Z założenia asystenci AI, tacy jak Gemini, mają przestać być tylko inteligentnymi wyszukiwarkami, a stać się cyfrowymi agentami (agentic AI), którzy wykonują za nas pracę wewnątrz aplikacji firm trzecich. Google podzieliło się właśnie technicznymi szczegółami tego rozwiązania. Zmiana paradygmatu w ekosystemie Androida będzie realizowana na dwa sposoby.

AppFunctions, czyli API dla sztucznej inteligencji

Pierwsze i najbardziej eleganckie rozwiązanie to wbudowana w Androida 16 (oraz powiązaną bibliotekę Jetpack) funkcja „AppFunctions”. Pozwala ona deweloperom na wystawienie konkretnych możliwości ich aplikacji bezpośrednio dla asystentów AI. Google porównuje ten system do popularnego protokołu MCP (Model Context Protocol) używanego na serwerach, z tą różnicą, że AppFunctions działa całkowicie lokalnie na urządzeniu, co gwarantuje prywatność i bezpieczeństwo danych.

Jak to wygląda w praktyce? Jeśli użytkownik powie: „Znajdź przepis na makaron w mailach od Anny i dodaj składniki do mojej listy zakupów”, Gemini wykorzysta AppFunctions do uruchomienia ukrytego procesu. Najpierw przeszuka aplikację pocztową, odszuka właściwy wątek korespondencji, wyciągnie z niego tekst, a następnie wywoła funkcję aplikacji z listą zakupów, aby automatycznie dodać tam odpowiednie produkty – a to wszystko bez ręcznego otwierania tych programów przez użytkownika.

Google potwierdziło, że system ten debiutuje właśnie na Samsungach Galaxy S26 (wymaga nakładki OneUI 8.5 lub nowszej). Umożliwia to m.in. wywołanie komendy: „Pokaż mi zdjęcia mojego kota z Samsung Gallery”. Gemini samo przeszuka galerię i wyświetli zdjęcia w swoim własnym oknie czatu, skąd można je od razu wysłać znajomym.

UI Automation: brutalna siła dla opornych aplikacji

Google zdaje sobie jednak sprawę, że zanim wszyscy deweloperzy wdrożą u siebie nowe API, miną lata. Dlatego Android zyskał również drugi mechanizm: automatyzację interfejsu użytkownika (UI automation).

To rozwiązanie zostało zaprezentowane podczas dzisiejszych premier Pixela 10 i Galaxy S26. Jeśli aplikacja nie obsługuje natywnie AppFunctions, platforma i tak poradzi sobie z zadaniem. Sztuczna inteligencja wizualnie analizuje interfejs otwartej aplikacji i fizycznie „klika” w odpowiednie przyciski, symulując ruchy użytkownika.

Dla deweloperów oznacza to, że ich aplikacje zyskają wsparcie dla automatyzacji Gemini przy zerowym nakładzie pracy inżynieryjnej. Google zapowiada, że technologia ta zostanie jeszcze mocniej rozwinięta i zintegrowana z systemem wraz z premierą Androida 17.

Co to oznacza dla polskich użytkowników?

Od strony technologicznej mechanizmy te są głęboko zaszyte w systemie i nie posiadają twardych blokad regionalnych. Prawdziwym testem dla polskich użytkowników będzie jednak bariera językowa. Złożone przepływy pracy (tzw. workflows) wymagają od modelu AI doskonałego zrozumienia intencji użytkownika. Zanim polskojęzyczne Gemini nauczy się bezbłędnie interpretować komendy wymagające przeskakiwania między trzema różnymi aplikacjami, prawdopodobnie będziemy zmuszeni do posiłkowania się językiem angielskim.

Nowy Google Pixel 10 Pro – pierwsze wrażenia

#AppFunctionsAndroid16 #asystentAI #cyfrowyAgentAI #GeminiAutomatyzacja #GooglePixel10Automatyzacja #ModelContextProtocolAndroid #SamsungGalaxyS26Gemini #UIAutomationAndroid

🆕mObywatel stawia na sztuczną inteligencję! Asystent AI już dostępny dla wszystkich
➡️https://rootblog.pl/mobywatel-stawia-na-sztuczna-inteligencje/

#AsystentAI #mObywatel #SztucznaInteligencja

Koniec irytującego znikania. Gemini na Androidzie wreszcie pozwoli na prawdziwy multitasking

Ile razy zdarzyło Ci się poprosić asystenta AI o napisanie maila, tylko po to, by stracić całą treść po przypadkowym tapnięciu w tło? Google wreszcie naprawia największą wadę interfejsu Gemini na Androidzie.

Do tej pory korzystanie z Gemini jako nakładki na system przypominało stąpanie po cienkim lodzie. Wystarczył jeden fałszywy ruch – dotknięcie ekranu poza oknem asystenta – by Gemini się zamykało, zabierając ze sobą całą konwersację. Chciałeś sprawdzić coś w innej aplikacji w trakcie generowania odpowiedzi? Zapomnij.

Pływający przycisk ratuje sytuację

Jak donosi Android Authority (powołując się na analizę kodu beta wersji aplikacji Google), nadchodzi rozwiązanie. Zamiast znikać bez śladu, zminimalizowane okno Gemini zamieni się w mały, pływający przycisk (FAB; floating action button) przy krawędzi ekranu.

To zmienia zasady gry. Dlaczego? Bo daje użytkownikowi szereg korzyści:

  • Ciągłość pracy: możesz zlecić Gemini skomplikowane zadanie, zminimalizować je, popracować w innej apce i wrócić do gotowego wyniku jednym tapnięciem.
  • Kontekst: możesz skakać między aplikacjami, kopiując dane potrzebne do promptu, bez resetowania sesji.
  • Wygoda: dopiero gdy skończysz, przesuwasz przycisk do krawędzi (gest swipe), by zamknąć asystenta całkowicie.

Google szykuje się na rok 2026

Ta zmiana to element większej układanki. Google potwierdziło już, że w 2026 roku Gemini całkowicie zastąpi klasycznego Asystenta Google. Aby to się udało bez buntu użytkowników, AI musi działać w tle tak płynnie, jak stary dobry Asystent, a nie blokować cały ekran.

W połączeniu z niedawną premierą lżejszego modelu Gemini 3 Flash, Google wyraźnie czyści przedpole przed nowym rokiem, usuwając irytujące „choroby wieku dziecięcego” swojej sztucznej inteligencji.

Gemini 3 Flash: to nie jest wersja „Lite”. W kodowaniu bije nawet wersję Pro

#aktualizacja #Android #asystentAI #Gemini #Google #GoogleApp #multitasking

Google ulepsza mapy w Gemini. Asystent zyskuje bogatsze, wizualne odpowiedzi w wersji angielskiej

Google aktualizuje sposób, w jaki jego sztuczna inteligencja prezentuje wyniki lokalizacyjne.

Do tej pory integracja Gemini z Google Maps ograniczała się często do tekstu i prostych linków. Nowa wersja, wdrażana obecnie dla języka angielskiego, stawia na format graficzny i użyteczne podsumowania.

Firma z Mountain View zmienia interfejs odpowiedzi w swoim asystencie AI. Zgodnie z zapowiedziami, zamiast tekstowych opisów z mapą ukrytą na końcu, Gemini zaczyna prezentować wyniki w sposób zbliżony do natywnej aplikacji Map.

Kluczową zmianą jest wprowadzenie interaktywnych kart lokalizacji. Oprócz standardowej mapy z nowymi, tematycznymi pinezkami, asystent wyświetla zdjęcia miejsc oraz ich oceny.

Nowością są generowane przez AI podsumowania opinii. Gemini analizuje recenzje użytkowników i wyciąga z nich najważniejsze wątki (np. „O czym ludzie mówią najczęściej”) oraz praktyczne wskazówki, co pozwala na szybszą ocenę miejsca bez konieczności ręcznego przeglądania setek komentarzy.

Aktualizacja jest obecnie wdrażana dla aplikacji mobilnej i wersji desktopowej w języku angielskim. Nie wiemy jeszcze, czy rozwiązanie to pojawi się również w innych wersjach językowych, niemniej bazując na dotychczasowej polityce wdrożeń Google, należy tego oczekiwać po pewnym czasie.

Google stanowczo: „Nie mamy planów na reklamy w Gemini”. To zupełnie inna droga niż OpenAI

#aktualizacjaGoogle #asystentAI #GoogleGemini #googleMaps #news #sztucznaInteligencja

Google Gemini i AI w święta – zorganizuj przyjęcie bez stresu

Masz wrażenie, że święta to maraton z listą zadań dłuższą niż kolejka do karpia? Co, jeśli część tego chaosu da się oddać w outsourcing – algorytmowi?

Czytaj dalej:
https://pressmind.org/google-gemini-i-ai-w-swieta-zorganizuj-przyjecie-bez-stresu/

#PressMindLabs #asystentai #gem #googlegemini #planowanieprzyjec #swieta

Google wprowadza AI do organizacji świąt – nowy sposób na przyjęcia

Czy można zorganizować święta i nie osiwieć? Google mówi: tak – o ile pozwolisz, by AI zagrała rolę współgospodarza.

Czytaj dalej:
https://pressmind.org/google-wprowadza-ai-do-organizacji-swiat-nowy-sposob-na-przyjecia/

#PressMindLabs #asystentai #gemini #gems #google #organizacjaswiat

Comet na Androida – mobilna przeglądarka myśląca jak asystent AI

Czy mobilna przeglądarka powinna umieć nie tylko otwierać karty, ale też myśleć, streszczać i działać za nas? Perplexity uważa, że tak – i właśnie przenosi ten pomysł na Androida.

Czytaj dalej:
https://pressmind.org/comet-na-androida-mobilna-przegladarka-myslaca-jak-asystent-ai/

#PressMindLabs #android #asystentai #chrome #comet

Mała zmiana w Gemini, która wiele ułatwia. Koniec z komendami typu @YouTube i @Mapy

Google wprowadza istotną aktualizację swojego asystenta AI, Gemini, która ma na celu uczynienie rozmów z nim bardziej naturalnymi.

Z interfejsu znikają specjalne komendy wywołujące aplikacje, takie jak „@Google Maps” czy „@YouTube”. Nie oznacza to jednak usunięcia funkcji, a ich pełną, automatyczną integrację.

Dotychczas, aby zadać Gemini pytanie dotyczące konkretnej usługi Google, użytkownicy musieli korzystać ze specjalnego znacznika „@”, podobnie jak w innych narzędziach AI, aby aktywować odpowiednie rozszerzenie. Przykładowo, trzeba było wpisać „@YouTube znajdź film o…” lub „@Google Maps podaj trasę do…”. Teraz ten wymóg znika.

Jak nie dać się oszukać w sieci? 6 nowości od Google, które chronią Twoje dane i konto

Zmiana polega na tym, że Gemini ma być na tyle inteligentne, by samodzielnie zrozumieć intencje użytkownika na podstawie kontekstu pytania. Zamiast wpisywać komendę, wystarczy teraz zapytać w naturalny sposób, np. „Gdzie jest najbliższa kawiarnia i o której się otwiera?” lub „Pokaż mi loty do Tokio i zaproponuj, co można tam robić”. Gemini automatycznie rozpozna, że ma skorzystać z danych Map, Lotów czy YouTube, aby udzielić odpowiedzi.

Zniknięcie znaczników „@” z pola podpowiedzi to świadoma decyzja projektowa. Google chce, aby użytkownicy wchodzili w interakcję z AI w sposób płynny i konwersacyjny, bez konieczności zastanawiania się, którą „wtyczkę” należy w danym momencie aktywować. To krok w stronę uczynienia z Gemini bardziej zintegrowanego asystenta, a mniej technicznego narzędzia.

Warto również zauważyć, że sama nazwa tych integracji uległa zmianie. Dotychczasowa sekcja „Rozszerzenia” (Extensions) w ustawieniach Gemini została przemianowana na „Połączone aplikacje” (Connected Apps). Wciąż znajdują się tam kluczowe usługi, takie jak Google Workspace (Kalendarz, Dysk, Gmail), Google Photos, czy YouTube Music, co pokazuje, jak głęboko asystent jest zintegrowany z całym ekosystemem.

Google prezentuje Veo 3.1. Lepszy dźwięk i edycja w wideo generowanym przez AI

#AI #aktualizacja #asystentAI #Gemini #Google #googleMaps #interfejs #news #PołączoneAplikacje #sztucznaInteligencja #YouTube

Google rewolucjonizuje Chrome dzięki AI. Nadchodzi inteligentny asystent, ale Polacy muszą poczekać

Google zapowiedział fundamentalną zmianę w działaniu swojej przeglądarki. Chrome, najpopularniejsze narzędzie do przeglądania internetu na świecie, wkracza w nową erę, w której sercem ma być sztuczna inteligencja.

Firma ogłosiła integrację modelu Gemini bezpośrednio z przeglądarką, co ma przekształcić ją z pasywnego okna na świat w aktywnego, inteligentnego partnera. Jest jednak ważna informacja dla polskich użytkowników – na premierę nowych funkcji w naszym kraju trzeba będzie poczekać.

Nowa wizja Google zakłada, że przeglądarka ma nie tylko wyświetlać strony, ale także je rozumieć i pomagać użytkownikowi w szybszym i łatwiejszym załatwianiu spraw. Ma się to odbywać na trzech głównych płaszczyznach.

„Bez nich nie byłoby OpenAI”. Sam Altman ujawnia kluczową rolę Polaków w stworzeniu GPT-4

Największą nowością ma być Gemini w Chrome – asystent AI, który rozumie kontekst tego, co robimy w wielu otwartych kartach jednocześnie. Google podaje przykład studenta pracującego nad referatem, który zamiast przeskakiwać między dziesiątkami otwartych źródeł, będzie mógł zadać asystentowi pytanie, a ten sam połączy informacje z różnych artykułów czy nawet znajdzie konkretne odniesienia w filmach na YouTube.

Asystent zintegruje się również z innymi usługami, takimi jak Dokumenty czy Kalendarz Google. W przyszłości jego możliwości mają być jeszcze większe – ma samodzielnie wykonywać wieloetapowe zadania, jak np. zamówienie zakupów spożywczych.

Zmiany dotkną również paska adresu (omnibox), który otrzyma specjalny Tryb AI. Pozwoli on na zadawanie skomplikowanych, wielowątkowych pytań bezpośrednio w miejscu, w którym do tej pory wpisywaliśmy adresy i proste zapytania. Dodatkowo, omnibox zacznie wyświetlać kontekstowe sugestie wyszukiwania, bazując na stronie, którą aktualnie przeglądamy. Przykładowo, czytając o produkcie, który chcemy kupić, przeglądarka może podsunąć pytanie o „politykę gwarancyjną”.

YouTube Music z zapowiedziami albumów, a podcasty dostaną… własne wideo z AI

Google podkreśla, że rozwój AI idzie w parze z bezpieczeństwem. Firma rozszerza wykorzystanie sztucznej inteligencji do proaktywnego blokowania nowych typów oszustw, bezpiecznego uzupełniania danych logowania czy pomagania w rozwiązywaniu problemów z przejętymi hasłami. Jak podaje firma, to już działa – dzięki ostrzeżeniom opartym na AI, użytkownicy Chrome na Androidzie otrzymują dziennie o około 3 miliardy mniej spamerskich i oszukańczych powiadomień.

Wszystkie nowe funkcje asystenta i omniboksu będą na początku dostępne wyłącznie w Stanach Zjednoczonych i w języku angielskim. Google zapowiada, że w nadchodzących tygodniach planuje rozszerzyć ich dostępność na kolejne kraje i języki, jednak na ten moment nie podano konkretnego harmonogramu dla Polski.

Sąd zdecydował w sprawie Google. Chrome i Android zostają, ale firma musi dzielić się danymi

#AI #asystentAI #Gemini #Google #GoogleChrome #news #omnibox #przeglądarkaInternetowa #przyszłość #sztucznaInteligencja #technologia