Zmierzch wyszukiwarki, jaką znaliśmy. Google AI Mode zamyka użytkowników we własnym ekosystemie

Najpopularniejsza wyszukiwarka świata przestaje być drogowskazem, a coraz częściej staje się miejscem docelowym.

Nowy raport agencji SE Ranking ujawnia znaczącą zmianę w działaniu sztucznej inteligencji Google. Algorytmy giganta z Mountain View przestały odsyłać nas do zewnętrznych stron, serwując nam niemal trzykrotnie więcej odpowiedzi opartych na własnych zasobach firmy. To fundamentalna zmiana zasad gry w całym internecie.

Jeszcze do niedawna, wpisując zapytanie w Google, otrzymywaliśmy listę linków i sami decydowaliśmy, w które źródło chcemy kliknąć. Wraz z szybkim rozwojem odpowiedzi generowanych przez sztuczną inteligencję (AI Mode), ten model powoli odchodzi do lamusa.

Wyraźny wzrost autocytowań

Dane z wspomnianego raportu nie pozostawiają złudzeń. Jeszcze w czerwcu 2025 roku udział wewnętrznych zasobów Google w źródłach podawanych przez moduł AI wynosił 5,7 proc. Obecnie ten wskaźnik wzrósł do 17,42 proc. Oznacza to, że blisko jedna na pięć odpowiedzi generowanych przez sztuczną inteligencję pochodzi z samego… Google.

Zmiana ta wpływa przede wszystkim na konkretne branże. W sektorze podróży i turystyki skala autocytowania osiągnęła poziom 53,18 proc. Zamiast kierować nas do niezależnych blogów czy lokalnych serwisów, algorytm serwuje nam gotowe rozwiązania z własnych map czy modułów rezerwacyjnych. W segmencie rozrywki wskaźnik ten dobija do 49 proc., a w nieruchomościach przekracza 30 proc.

Ponad połowa (59 proc.) wszystkich linków w trybie AI prowadzi po prostu do kolejnych tradycyjnych wyników wyszukiwania, a ponad 30 proc. kieruje użytkowników do profili firmowych uwięzionych wewnątrz usług Google. Gigant buduje z internetu zamknięty ekosystem – daje nam gotowe odpowiedzi, byśmy nie musieli (ani nie chcieli) klikać w zewnętrzne linki.

Nowa era widoczności i stare problemy algorytmów

Dla branży marketingowej to poważne przetasowanie. Marcin Stypuła, założyciel agencji Semcore, wprost mówi o zmierzchu klasycznego SEO. Zamiast walczyć o ruch na stronach, firmy muszą teraz zabiegać o tzw. „Share of LLM”, czyli udział w generowanych odpowiedziach. Kluczem staje się to, czy sztuczna inteligencja uzna dany podmiot za na tyle wiarygodny, by w ogóle o nim wspomnieć w swoim podsumowaniu.

Problem w tym, że działanie Google bywa niestabilne i podatne na błędy. Badania na próbie 10 tysięcy zapytań pokazały, że AI Mode nie zachowuje konsekwencji. Przy trzykrotnym wpisaniu tego samego hasła, pokrycie zwracanych adresów URL wyniosło raptem 9,2 proc. Oznacza to, że użytkownik za każdym razem otrzymywał niemal zupełnie inny zestaw źródeł.

Do tego dochodzi problem geograficznych preferencji i starych dobrych halucynacji. Zarówno modele Google, jak i te od OpenAI, wyraźnie promują źródła amerykańskie (w przypadku Gemini aż 74,5 proc. nietrafionych wyników wskazywało na podmioty z USA), marginalizując firmy z innych krajów, nawet jeśli te mają lepszą pozycję rynkową. Co więcej, moduły AI wciąż potrafią generować nieprawdziwe informacje, szczególnie w przypadku zapytań naukowych czy prawnych.

Wygoda w internecie zawsze ma swoją cenę. Zamiast aktywnie poszukiwać i weryfikować wiedzę, coraz częściej po prostu ufamy maszynie, która dla zatrzymania ruchu u siebie, coraz mocniej opiera się na własnych usługach i wciąż, choć nie zawsze, zmyśla.

Google chce przejąć kontrolę nad samochodem. Android Automotive wykracza poza infotainment

#algorytmyGoogle #autocytowanieGoogle #GeminiWynikiWyszukiwania #GoogleAIMode #przyszłośćWyszukiwarek #raportSERanking #ShareOfLLM #sztucznaInteligencjaGoogle #zmianyWSEO

Google testuje podmienianie nagłówków w wyszukiwarce za pomocą AI

Wydawało się, że spadek ruchu z wyszukiwarki i generowane przez sztuczną inteligencję podsumowania to największe problemy współczesnych wydawców. Tymczasem Google idzie o krok dalej.

Gigant z Mountain View rozpoczął testy mechanizmu, w którym AI samodzielnie przepisuje nagłówki i tytuły artykułów w wynikach wyszukiwania. Dla twórców treści to bardzo niebezpieczny precedens.

O sprawie jako pierwszy poinformował serwis The Verge, którego redaktorzy na przestrzeni ostatnich kilku miesięcy zauważyli coś bardzo niepokojącego. Tytuły ich własnych artykułów, wyświetlane w wynikach wyszukiwania Google, nie zgadzały się z tym, co fizycznie opublikowano na stronie, ani nawet z metadanymi SEO. Zostały napisane od nowa przez kogoś – a raczej przez coś – zupełnie innego.

AI decyduje, o czym napisałeś

Google oficjalnie potwierdziło, że prowadzi obecnie „niewielki eksperyment”, w ramach którego modyfikuje nagłówki artykułów oraz nazwy stron internetowych w wynikach wyszukiwania. Firma tłumaczy to chęcią „lepszego dopasowania tytułów do zapytań użytkowników i ułatwienia interakcji z treściami w sieci”.

Jak to wygląda w praktyce? The Verge podaje konkretne przykłady ingerencji w swoje teksty:

  • Oryginalny, autorski tytuł: „Microsoft robi rebranding Copilota w najbardziej microsoftowy z możliwych sposobów” został arbitralnie zmieniony przez Google na suchy i bezduszny komunikat: „Zmiany w Copilocie: Zespoły marketingowe znowu w akcji”.
  • Inny nagłówek, brzmiący: „Użyłem narzędzia AI do »oszukiwania we wszystkim« i nie pomogło mi to w oszukaniu w niczym”, wyszukiwarka uprościła do absurdalnego: „Narzędzie AI »Oszukuj we wszystkim«”.

Warto zaznaczyć, że wydawcy od lat stosują różne tytuły dla czytelników na stronie i inne pod kątem wyszukiwarek (tzw. tytuły SEO). Różnica polega jednak na tym, że do tej pory to redakcja miała nad tym pełną kontrolę. Teraz Google po prostu ucina ten proces, przejmując stery. Co ciekawe, przedstawiciele firmy zarzekają się, że jeśli funkcja wejdzie do powszechnego użytku, „nie będzie korzystać z modeli generatywnych do tworzenia nagłówków” – cokolwiek to w obecnej, testowej fazie oznacza.

Równia pochyła dla wydawców

Dla właścicieli stron internetowych, portali i blogów to fatalna wiadomość. Jeśli Google może w dowolnej chwili i według własnego uznania wyświetlać własne, wygenerowane tytuły, istnieje ogromne ryzyko całkowitego wypaczenia intencji autora, a nawet szerzenia dezinformacji.

Co więcej, dzieje się to w najgorszym z możliwych momentów. Wydawcy na całym świecie już teraz zmagają się z gigantycznymi spadkami ruchu (referrali) z Google, spowodowanymi wprowadzaniem funkcji AI Overviews, która odpowiada na pytania użytkowników bezpośrednio w wyszukiwarce. Automatyczne przepisywanie nagłówków, by jeszcze mocniej zatrzymać użytkownika w ekosystemie Google, to kolejny krok do marginalizacji twórców oryginalnych treści.

Google odpala kombajn do „vibe codingu”, a Apple go blokuje. Dwie wizje przyszłości aplikacji

#AIWGoogle #algorytmyGoogle #GoogleSearch #GoogleZmieniaNagłówki #przyszłośćMediów #ruchZWyszukiwarki #SEO #sztucznaInteligencjaGoogle #tytułyArtykułówGoogle #wyszukiwarkaGoogle

Asystent Google sam zamówi jedzenie. Nowe opcje dla serii Pixel 10

Google rozpoczęło wdrażanie nowości, dzięki której Gemini zaczyna samodzielnie wykonywać zadania za użytkownika.

Sztuczna inteligencja potrafi teraz nawigować po interfejsie kompatybilnych aplikacji, aby w naszym imieniu zarezerwować przejazd lub kupić obiad. Rozwiązanie to trafia właśnie na pokłady smartfonów z serii Pixel 10.

Funkcja, która w zeszłym tygodniu zadebiutowała w modelach Galaxy S26, jest udostępniana na Pixelach w ramach marcowej aktualizacji (Feature Drop Android 16 QPR3). To wyraźny krok w stronę telefonów, które nie tylko odpowiadają na nasze pytania, ale faktycznie działają i wykonują za nas realną pracę.

Jak działa automatyzacja ekranu

Zamiast ręcznie „przeklikiwać” się przez menu, użytkownik może wydać asystentowi konkretne polecenie głosowe lub tekstowe, na przykład: „Zamów przejazd na lotnisko”, „Powtórz moje ostatnie zamówienie na kawę” czy „Dodaj mleko i jajka do mojego koszyka”.

Gemini przetwarza komendę w chmurze i uruchamia docelową aplikację w bezpiecznym, wirtualnym oknie. To tzw. funkcja Screen Automation (automatyzacja ekranu). Użytkownik widzi w tym czasie powiadomienie o trwającym procesie i może na bieżąco śledzić postępy lub w dowolnej chwili przerwać operację. Co ważne, sztuczna inteligencja potrafi dopytać o szczegóły (na przykład o rozmiar napoju), a przed ostatecznym sfinalizowaniem transakcji i pobraniem środków zawsze prosi osobę trzymającą telefon o ostateczne zatwierdzenie.

Limity korzystania z nowej opcji uzależnione są od posiadanego planu subskrypcyjnego Google:

  • Wersja darmowa: 5 operacji dziennie
  • AI Plus: 12 operacji dziennie
  • AI Pro: 20 operacji dziennie
  • AI Ultra: 120 operacji dziennie

W praktyce oznacza to dość ograniczone użycie w darmowej wersji, co bez wątpienia ma skłonić najbardziej aktywnych użytkowników do przejścia na płatne plany.

Czy nowa funkcja zadziała w Polsce?

Na ten moment wdrażanie nowości ograniczone jest do terytorium Stanów Zjednoczonych. Wynika to z faktu, że początkowa lista kompatybilnych usług obejmuje w dużej mierze aplikacje typowo amerykańskie (Lyft, GrubHub, DoorDash).

Na liście wspieranych programów znajduje się jednak również Uber oraz Uber Eats, co daje ogromną nadzieję na stosunkowo szybkie rozszerzenie działania funkcji na rynek europejski, w tym polski. Nowe opcje w ustawieniach asystenta pojawiają się obecnie na modelach Pixel 10, Pixel 10 Pro, Pixel 10 Pro XL, a także na nieoferowanym w Polsce, składanym Pixel 10 Pro Fold.

Google daje AI dostęp do Twoich maili i zdjęć. Nowa funkcja trafia do darmowych użytkowników

#AIWSmartfonach #Android16QPR3 #automatyzacjaEkranuAndroid #GeminiScreenAutomation #GoogleGemini #GooglePixel10Funkcje #sztucznaInteligencjaGoogle #zamawianieUberaPrzezAsystenta

Gemini w Google Home w końcu przyspiesza. Ale w Polsce i tak musisz obejść system

Zastąpienie wysłużonego Asystenta Google nową sztuczną inteligencją Gemini miało być rewolucją w inteligentnym domu. Szybko okazało się jednak, że o ile nowe AI świetnie radzi sobie ze złożonymi pytaniami, o tyle przy prostym gaszeniu światła… potwornie „muli”.

Google wdraża właśnie kluczową aktualizację, która to naprawia. Niestety, polscy użytkownicy znów mają pod górkę. Kiedy Google uruchomiło wczesny dostęp do funkcji „Gemini for Home”, entuzjazm szybko opadł. Użytkownicy zaczęli narzekać na irytujące opóźnienia. Sztuczna inteligencja potrzebowała zdecydowanie zbyt dużo czasu na przetworzenie banalnej prośby o włączenie telewizora czy zmianę temperatury. Na szczęście gigant z Mountain View właśnie załatał to wąskie gardło.

Gemini uczy się szybkiego reagowania

Anish Kattukaran, szef działu Google Home, ogłosił w serwisie X, że firma właśnie zakończyła wdrażanie potężnej aktualizacji infrastruktury dedykowanej wyłącznie pod „Gemini for Home”. Inżynierowie wzięli na warsztat setki najpopularniejszych komend domowych (takich jak „wyłącz światła”) i drastycznie zoptymalizowali sposób ich przetwarzania przez AI.

Efekty mają być natychmiastowe. Według oficjalnych danych opóźnienia w przetwarzaniu tych najczęstszych poleceń przez Gemini zostały ścięte aż o 30 do 40 procent. Oprócz samego przyspieszenia reakcji, Google chwali się również znaczącym spadkiem odsetka błędów.

Podwójny policzek dla Europy

Zanim jednak rzucicie się do testowania nowej, błyskawicznej sztucznej inteligencji w swoim salonie, musimy wylać na Wasze głowy kubeł zimnej wody. Integracja Gemini z inteligentnym domem jest obecnie oficjalnie niedostępna w Polsce.

I nie chodzi tu tylko o brak obsługi języka polskiego (głośniki z serii Nest od lat uparcie ignorują nasz język, zmuszając nas do wydawania komend po angielsku). Głównym problemem jest geoblokada. Ze względu na surowe unijne przepisy (w tym AI Act i RODO), Google wstrzymało europejską premierę „Gemini for Home”. Wczesny dostęp działa obecnie wyłącznie w USA, Kanadzie, Wielkiej Brytanii, Australii, Nowej Zelandii i Irlandii. Oficjalne wejście na rynek europejski planowane jest dopiero na wiosnę tego roku.

Polak (i Europejczyk) potrafi

Dla zapaleńców technologicznych nie ma jednak rzeczy niemożliwych. Na forach internetowych (m.in. na Reddicie) szybko pojawił się sprawdzony sposób na obejście regionalnych blokad Google’a.

Aby wymusić pobranie Gemini na swoje głośniki (i móc cieszyć się jego 40-procentowym przyspieszeniem), wystarczy w ustawieniach aplikacji Google Home na smartfonie tymczasowo zmienić swój adres zamieszkania na fikcyjny adres w Stanach Zjednoczonych. Po upływie kilkunastu godzin system powinien zaktualizować głośniki do nowej wersji, a my możemy bezpiecznie przywrócić nasz prawdziwy, polski adres.

Pamiętajcie jednak, że nawet po takim włamaniu do systemu, z domowym Gemini porozmawiacie wyłącznie w językach obcych.

Wielkie porządki w Google Home. Gemini wreszcie zrozumie kontekst (i daje nadzieję na nowe języki)

#aktualizacjaGoogleHome2026 #AsystentGooglePoPolsku #blokadaRegionalnaGoogle #GeminiForHome #GoogleHome #inteligentnyDom #jakWłączyćGeminiWPolsce #komendyGłosoweGoogleGemini #smartHomeAI #sztucznaInteligencjaGoogle

Mała, ale kluczowa zmiana. Google nareszcie ułatwi nawigację w NotebookLM

Niedawno pisaliśmy o potężnej, płatnej funkcji „Cinematic Video Overviews” w NotebookLM. Okazuje się jednak, że Google przygotowuje również mniejsze, ale niezwykle praktyczne ulepszenia interfejsu, które znacząco ułatwią życie użytkownikom bezpłatnej wersji tego narzędzia.

Popularność NotebookLM rośnie w niesamowitym tempie. Problem polega na tym, że osoby intensywnie korzystające z tego asystenta badawczego szybko gromadzą na swoim koncie dziesiątki różnych projektów (notatników). Do tej pory interfejs usługi był pod tym względem dość spartański – znalezienie starszego dokumentu w zakładce „Moje notatniki” wymagało żmudnego, ręcznego przewijania strony głównej.

Jak donosi branżowy informator ukrywający się pod pseudonimem TestingCatalog, inżynierowie z Mountain View zamierzają wreszcie rozwiązać ten problem. W przygotowaniu są dwie użyteczne nowości:

  • Wyszukiwarka notatników: na ekranie głównym NotebookLM pojawi się dedykowany przycisk wyszukiwania. Zamiast przewijać ich listę, wystarczy wpisać kilka pierwszych liter tytułu projektu, aby natychmiast go wywołać.
  • Przypinanie projektów: to rozwiązanie doskonale znane z komunikatorów internetowych. Użytkownicy otrzymają możliwość przypinania najważniejszych lub aktualnie edytowanych notatników na samej górze ekranu głównego. Dzięki temu kluczowe materiały będą zawsze pod ręką.

Brak tak podstawowych funkcji w tak zaawansowanym narzędziu opartym na sztucznej inteligencji był dotąd sporym niedopatrzeniem. Obie funkcje znajdują się obecnie w fazie rozwoju. Biorąc pod uwagę ich czysto użytkowy charakter, można bezpiecznie założyć, że trafią one do wszystkich użytkowników usługi za darmo, w przeciwieństwie do zaawansowanych funkcji wideo zablokowanych za paywallem subskrypcji AI Ultra.

NotebookLM wchodzi na wyższy poziom. Google prezentuje kinowe podsumowania wideo

#asystentAI #funkcjeNotebookLM #GoogleNotebookLM #interfejsAI #NotebookLMAktualizacja #sztucznaInteligencjaGoogle #wyszukiwarkaWNotebookLM

NotebookLM wchodzi na wyższy poziom. Google prezentuje kinowe podsumowania wideo

Narzędzie NotebookLM, które zrewolucjonizowało sposób, w jaki pracujemy z notatkami i badaniami, zyskuje potężną aktualizację.

Google oficjalnie wprowadza funkcję „Cinematic Video Overviews” (Kinowe Podsumowania Wideo), łącząc moc trzech topowych modeli sztucznej inteligencji, aby zamienić suche fakty w angażujące, animowane materiały.

Do tej pory NotebookLM słynęło głównie z fenomenalnych podsumowań audio (generowanych w formie wciągających podcastów) oraz prostych materiałów wideo opartych na statycznych slajdach z lektorem. Najnowsza aktualizacja idzie jednak o krok dalej. Zapomnij o nudnych prezentacjach – Google chce, aby Twoje źródła zamieniały się w dynamiczne, wizualne opowieści.

Trzy modele sztucznej inteligencji pod maską

Aby osiągnąć płynny, kinowy efekt, Google zaprzęgło do pracy swoje zaawansowane modele, które w ułamkach sekund dzielą się zadaniami:

  • Gemini 3: pełni rolę wirtualnego reżysera i scenarzysty. Analizuje źródła użytkownika, decyduje o strukturze narracji oraz podejmuje setki decyzji dotyczących stylu i formatu.
  • Nano Banana Pro: odpowiada za generowanie wysokiej jakości obrazów i elementów wizualnych.
  • Veo 3: odpowiada za ostateczną generację wideo, ożywiając statyczne elementy i łącząc całość w płynny materiał.

Dzięki takiemu połączeniu użytkownik nie musi posiadać żadnych umiejętności montażu – maszyna sama interpretuje udostępnione jej dokumenty czy linki, tworząc wideo, które ma za zadanie ułatwić naukę i maksymalnie zaangażować widza.

Próg wejścia? Wysoki

Innowacja ma na razie status usługi premium i wiąże się z kilkoma ograniczeniami. Zgodnie z oficjalnym komunikatem, funkcja Cinematic Video Overviews debiutuje z następującymi restrykcjami:

  • Jest dostępna wyłącznie dla subskrybentów najwyższego i najdroższego planu Google AI Ultra.
  • Na ten moment obsługuje wyłącznie język angielski.
  • Wymaga od użytkownika ukończenia 18. roku życia.

Nowość jest już udostępniana globalnie (dla uprawnionych kont) zarówno w przeglądarkowej wersji usługi, jak i w dedykowanych aplikacjach na systemy Android oraz iOS. Nawet jeśli na polską wersję językową będziemy musieli chwilę poczekać, nowa funkcja NotebookLM jasno wyznacza kierunek, w którym zmierza Google: płynnego łączenia tekstu, obrazu i wideo w jedno, zautomatyzowane doświadczenie.

Prezentacja „na wczoraj”? NotebookLM w końcu pozwala robić to na telefonie (i to dobrze)

#AIUltra #CinematicVideoOverviews #edukacjaAI #Gemini3 #generowanieWideoAI #GoogleNotebookLM #NanoBananaPro #sztucznaInteligencjaGoogle #Veo3

To nie koniec marcowych nowości od Google. Pixel zyskuje nowe funkcje AI i samodzielną aplikację muzyczną

Marcowy Pixel Drop okazał się jedną z największych aktualizacji w historii ekosystemu Google.

Pisaliśmy już o poprawkach błędów dla serii Pixel 10, nowościach dla zegarków Pixel Watch oraz aktualizacji sieci Find Hub. Pora zamknąć ten temat klamrą i spojrzeć na to, co nowego – w kwestii sztucznej inteligencji i interfejsu – trafia na ekrany samych smartfonów.

Google udostępnia właśnie pakiet funkcji, które mają uczynić Pixele jeszcze bardziej użytecznymi w codziennych, drobnych zadaniach. Choć aktualizacja wdrażana jest po stronie serwera i może potrwać kilka tygodni, wiemy już dokładnie, czego się spodziewać.

Marcowa aktualizacja dla smartfonów Google Pixel. Ważne poprawki dla serii Pixel 10

Gemini zrobi za Ciebie zakupy

Najciekawszą nowością z perspektywy rozwoju asystentów głosowych jest oddelegowanie sztucznej inteligencji do pracy w tle. Aplikacja Gemini zyskała w wersji beta funkcję samodzielnego realizowania prostych zadań. Użytkownik może poprosić asystenta o zamówienie ulubionej kawy, rezerwację przejazdu czy skompletowanie koszyka z zakupami spożywczymi. AI współpracuje z odpowiednimi aplikacjami, a przed ostateczną realizacją (np. płatnością) prosi użytkownika o podgląd i potwierdzenie działania, zachowując pełną kontrolę w rękach człowieka.

Rozbudowano również flagową funkcję „Zaznacz, aby wyszukać” (Circle to Search). Do tej pory system świetnie radził sobie z identyfikacją pojedynczych obiektów. Po aktualizacji (m.in. na modelach Pixel 10), zakreślenie na zdjęciu całej sylwetki sprawi, że Google rozpozna i wyszuka wszystkie elementy garderoby naraz – od butów po płaszcz – prezentując je w ramach jednego, uporządkowanego wyniku wyszukiwania.

Ekspresowe płatności, gesty i alarm o zgubionym telefonie. Co przynosi marcowy Pixel Drop dla zegarków Google?

„Co jest grane” idzie na swoje

Funkcja rozpoznawania muzyki grającej w otoczeniu (Now Playing) to jeden z najbardziej lubianych znaków rozpoznawczych Pixeli. Do tej pory była ona jednak dość głęboko zaszyta w systemie. Google ostatecznie wydzieliło ją do formy samodzielnej aplikacji. Zyskała ona dedykowaną kartę „Historia”, w której można łatwo przeglądać wszystkie zidentyfikowane utwory, a następnie jednym kliknięciem eksportować je do ulubionego odtwarzacza muzyki (np. Spotify czy YouTube Music).

Zmiany na ekranie głównym

Odświeżenia doczekał się również widżet „Szybki podgląd” (At a Glance). Od teraz potrafi on wyświetlać znacznie bardziej zróżnicowane, kontekstowe informacje w czasie rzeczywistym. Na ekranie głównym lub ekranie blokady zobaczymy m.in. bieżące opóźnienia w transporcie publicznym, wyniki meczów naszej ulubionej drużyny, a nawet aktualne notowania giełdowe zsynchronizowane z Google Finanse.

Dla fanów głębokiej personalizacji wprowadzono generator ikon wspierany przez sztuczną inteligencję. Pozwala on na wybór jednego z pięciu nowych stylów, które ujednolicają wygląd wszystkich aplikacji na ekranie głównym. Jako humorystyczny dodatek, Google dorzuciło również oficjalny pakiet motywów ze SpongeBobem.

Sieć Google Find Hub integruje się z liniami lotniczymi i komunikatorem

#aplikacjaCoJestGrane #GeminiWTle #GooglePixelDrop #marcowaAktualizacjaPixel #personalizacjaAndroid16 #sztucznaInteligencjaGoogle #widżetSzybkiPodgląd #ZaznaczAbyWyszukać

Zdjęcia Google na Androida dogoniły wersję na iOS – zyskują funkcję tworzenia naklejek

Użytkownicy iPhone’ów mogli z niej korzystać od miesięcy, ale Google wreszcie nadrabia zaległości we własnym ekosystemie.

Aplikacja Zdjęcia Google na Androida otrzymuje właśnie aktualizację, która pozwala na błyskawiczne przekształcanie obiektów z fotografii w spersonalizowane naklejki. Google od lat rozwija swoją galerię, dokładając do niej kolejne narzędzia oparte na sztucznej inteligencji, takie jak Magiczna Gumka czy zaawansowane wyostrzanie. Najnowsza funkcja skupia się jednak na komunikacji i zabawie formą, całkowicie eliminując konieczność korzystania z zewnętrznych aplikacji do precyzyjnego wycinania tła.

Sztuczna inteligencja w służbie komunikatorów

Mechanizm działania nowej opcji jest maksymalnie uproszczony. Po otwarciu wybranego zdjęcia w aplikacji (o ile algorytm rozpozna na nim wyraźny obiekt na pierwszym planie, np. osobę, zwierzę czy przedmiot), wokół głównego motywu pojawi się delikatna, połyskująca poświata. To sygnał ze strony AI, że obraz jest gotowy do konwersji.

Wystarczy dotknąć i przytrzymać podświetlony obiekt, a sztuczna inteligencja automatycznie oddzieli go od tła. Zamiast żmudnego, ręcznego kadrowania, użytkownik otrzymuje gotowy podgląd z opcją skopiowania lub bezpośredniego udostępnienia naklejki. Ponieważ pliki zapisywane są w formacie PNG z przezroczystym tłem, nie posiadają one nieestetycznych białych ramek. Można je od razu wkleić – na przykład za pomocą klawiatury Gboard – do ulubionych komunikatorów, takich jak WhatsApp, Telegram czy Wiadomości Google.

Ograniczenia i wymagania sprzętowe

Mimo że algorytmy zazwyczaj radzą sobie bardzo dobrze (nawet z trudnymi krawędziami, takimi jak sierść czy rozczochrane włosy), funkcja nie jest jeszcze w pełni doskonała. Obecnie aplikacja nie oferuje narzędzi do ręcznej korekty – jeśli AI wytnie obiekt niedokładnie, nie możemy użyć wirtualnego pędzla, aby naprawić błąd maszyny.

Ponadto, w przypadku zdjęć ze zbyt dużą liczbą obiektów lub przy bardzo płaskim oświetleniu, system może w ogóle nie wyodrębnić motywu (wtedy charakterystyczna poświata po prostu się nie pojawi).

Zgodnie z najnowszymi informacjami branżowymi, nowość jest obecnie szeroko wdrażana w aplikacji Zdjęcia Google od wersji 7.64. Aby z niej skorzystać, wymagane jest urządzenie z systemem Android wyposażone w co najmniej 4 GB pamięci RAM.

Koniec z wysyłaniem statycznych „pinezek”. Wiadomości Google wreszcie zyskają udostępnianie lokalizacji na żywo

#aktualizacjaAndroid #Gboard #GooglePhotos #naklejkiWhatsApp #naklejkiZeZdjęć #PNGZPrzezroczystymTłem #sztucznaInteligencjaGoogle #wycinanieTła #zdjęciaGoogle

Google odpala Gemini 3.1 Pro. Sztuczna inteligencja z potężnym skokiem logiki

Google nie zwalnia tempa w wyścigu zbrojeń na rynku sztucznej inteligencji. Gigant z Mountain View właśnie ogłosił premierę modelu Gemini 3.1 Pro.

Google nie zwalnia tempa w wyścigu zbrojeń na rynku sztucznej inteligencji. Gigant z Mountain View właśnie ogłosił premierę modelu Gemini 3.1 Pro. Zamiast czekać na tradycyjną, dużą aktualizację „półgeneracyjną” (jak znane z przeszłości wersje 1.5 czy 2.5), firma zdecydowała się na szybki, punktowy przeskok o „0.1”. Powód? Skupiono się na jednym, ale za to kluczowym aspekcie: wdrożeniu nowego silnika, który zwiększa zdolności analityczne i radzenie sobie ze złożonymi problemami.

Innymi słowy, o ile poprzednie wersje skupiały się na szybkości (jak Gemini 3 Flash) czy ogólnej wszechstronności, tak Gemini 3.1 Pro zostało zaprojektowane z myślą o zadaniach, w których „prosta odpowiedź to za mało”.

Rdzeń z Deep Think i podwojona moc rozumowania

Najważniejszą nowością w wersji 3.1 Pro jest zaimplementowanie ulepszonej „inteligencji bazowej”, która zadebiutowała niedawno w wyspecjalizowanym modelu Gemini 3 Deep Think.

W praktyce przekłada się to na drastyczny wzrost zdolności analitycznych. Google pochwaliło się, że nowy model osiągnął wynik 77,1% w rygorystycznym teście ARC-AGI-2. Oznacza to, że Gemini 3.1 Pro oferuje ponad dwukrotnie wyższą wydajność w logicznym rozumowaniu niż jego bezpośredni poprzednik (wersja 3 Pro). To idealne narzędzie do przejrzystego tłumaczenia bardzo skomplikowanych zagadnień wizualnych, syntetyzowania ogromnych zbiorów danych w jeden czytelny widok czy wspierania rozbudowanych projektów kreatywnych.

Gdzie można z niego skorzystać?

Google stawia na szeroką dystrybucję od pierwszego dnia. Model Gemini 3.1 Pro debiutuje dziś w:

  • Oficjalnej aplikacji Gemini (dla użytkowników).
  • Usłudze NotebookLM (dla subskrybentów planów Google AI Pro oraz Ultra).
  • Narzędziach dla deweloperów: poprzez Gemini API, Google AI Studio, Vertex AI, środowisko Antigravity, Gemini Enterprise, Gemini CLI oraz Android Studio.

Obecnie model znajduje się w fazie „preview” (wersji zapoznawczej). Google wykorzystuje ten etap do ostatecznej walidacji wydajności – szczególnie w kontekście ambitnych, wieloetapowych działań autonomicznych (tzw. agentic workflows) – zanim udostępni tę technologię jako domyślny standard dla wszystkich.

Gemini staje się kompozytorem. Google udostępnia model muzyczny Lyria 3 dla wszystkich

#aktualizacjaGemini2026 #ARCAGI2Gemini #Gemini31Pro #GeminiAIStudio #GeminiDeepThink #GoogleGeminiNowości #LLMRozumowanie #sztucznaInteligencjaGoogle

Kiedy Google I/O 2026? Gigant z Mountain View odpalił tradycyjną zagadkę (napędzaną przez AI)

Zaczynamy odliczanie do jednego z najważniejszych wydarzeń w świecie technologii. Zgodnie z wieloletnią tradycją, Google nie podało daty swojej corocznej konferencji dla deweloperów I/O na tacy. Zamiast tego, firma przygotowała dla społeczności interaktywną łamigłówkę. W tym roku główną rolę odgrywa w niej sztuczna inteligencja.

Jeśli Apple ma swoje WWDC, to dla całego ekosystemu Androida i usług z Mountain View odpowiednikiem jest Google I/O. Zazwyczaj wydarzenie to odbywa się w maju, ale dokładna data zawsze jest na początku ukryta pod postacią internetowej gry. Gdy odpowiednia liczba użytkowników na całym świecie rozwiąże zadania, licznik dobija do 100%, a data zostaje oficjalnie ujawniona.

Make. Build. Unlock.

Tegoroczna kampania, pod hasłem „Make Build Unlock”, to jednak coś więcej niż tylko prosty klikacz. Firma postanowiła wykorzystać tę okazję do zaprezentowania możliwości swojego najnowszego modelu sztucznej inteligencji – Gemini 3.

Tym razem na graczy czeka pięć różnych minigier, z których każda w unikalny sposób demonstruje potęgę AI Studio od Google. Co ciekawe, deweloperzy mogą podejrzeć, jak sztuczna inteligencja została zaimplementowana w kodzie gier i spróbować zremiksować je we własnym zakresie.

Jakie gry?

Wśród przygotowanych wyzwań znajdziemy:

  • Hole in one: minigolf, w którym Gemini 3 pełni rolę naszego caddy’ego (pomocnika), na bieżąco analizując naszą grę i rzucając spersonalizowanymi, często zabawnymi komentarzami.
  • Nonogram: klasyczna gra logiczna, w której AI w locie generuje nieskończoną liczbę nowych plansz.
  • Word wheel: słowna łamigłówka, gdzie sztuczna inteligencja dba o idealne zbalansowanie poziomu trudności projektowanych poziomów.
  • Supersonic Bot: zręcznościówka wykorzystująca mikrofon – to, jak głośno mówimy (lub krzyczymy), steruje wysokością lotu maskotki Androida.
  • Stretchy cat: gra, w której Gemini 3 wciela się w projektanta poziomów, dostosowując mechanikę rozciągającego się kota tak, by zapewnić niekończącą się rozgrywkę.

Gdy tylko społeczność upora się z zadaniami (co zazwyczaj zajmuje od kilku do kilkunastu godzin), poznamy oficjalny termin Google I/O 2026. Biorąc pod uwagę charakter łamigłówki, możemy być pewni, że tegoroczna konferencja będzie w 100% zdominowana przez nowości związane ze sztuczną inteligencją i rozwojem modelu Gemini.

A jeżeli nie chcecie już czekać, to bardzo proszę, oto data tegorocznego Google I/O:

Fałszywe infolinie na szczycie wyników. Jak oszuści wykorzystują AI Overviews od Google

#Android16Zapowiedzi #Gemini3Możliwości #GoogleIO2026Data #konferencjaGoogleDlaDeweloperów #MakeBuildUnlock #minigryGoogleAI #sztucznaInteligencjaGoogle #zagadkaGoogleIO