Gemini umożliwia generowanie filmów z modelem Veo 2

Google ogłosiło wprowadzenie nowej funkcji w aplikacji Gemini, umożliwiającej użytkownikom Gemini Advanced generowanie 8-sekundowych filmów za pomocą modelu Veo 2.

Funkcja jest już dostępna, pozwala tworzyć klipy wideo w rozdzielczości 720p na podstawie tekstowych opisów. Model Veo 2 jest zintegrowany z aplikacją Gemini na urządzeniach mobilnych i w wersji przeglądarkowej.

Veo 2 is super fun to play with, and people have been creating some amazing videos with it. Its implicit understanding of the physics of the world is kind of mindblowing. Looking forward to seeing more people enjoy it now that it’s part of @GeminiApp! https://t.co/bMqLCmNHmd

— Demis Hassabis (@demishassabis) April 15, 2025

Aby wygenerować film, użytkownicy wybierają model Veo 2 z menu aplikacji Gemini i wprowadzają opis sceny, którą chcą stworzyć. Im bardziej szczegółowy prompt, tym większa kontrola nad efektem końcowym. Wyprodukowane filmy są zapisywane w formacie MP4 w proporcjach 16:9 i mogą być udostępniane w mediach społecznościowych, takich jak TikTok czy YouTube Shorts. Wszystkie klipy są oznaczane cyfrowym znakiem wodnym SynthID, wskazującym, że zostały stworzone przez sztuczną inteligencję.

Google podkreśla, że Veo 2 wyróżnia się zaawansowanym rozumieniem fizyki i ruchu ludzkiego, co pozwala na tworzenie realistycznych scen i płynnych animacji w różnych stylach. Funkcja jest obecnie ograniczona do generowania filmów na podstawie tekstu, ale firma zapowiada prace nad rozszerzeniem możliwości modelu.

Użytkownicy Gemini Advanced mogą korzystać z tej opcji w ramach subskrypcji Google One AI Premium, kosztującej 97,99 zł miesięcznie w Polsce. Nowa funkcja jest również dostępna w eksperymentalnym projekcie Google Labs o nazwie Whisk, gdzie użytkownicy mogą przekształcać obrazy w animacje za pomocą Veo 2. Wdrożenie rozpoczęło się 15 kwietnia i potrwa kilka tygodni, obejmując wszystkie języki obsługiwane przez Gemini, w tym polski. Google nie podało szczegółów dotyczących miesięcznych limitów generowania filmów, ale użytkownicy będą informowani o zbliżaniu się do limitu.

Wprowadzenie Veo 2 do Gemini jest kolejnym krokiem w rozwoju generatywnej sztucznej inteligencji Google, mającym na celu zwiększenie kreatywnych możliwości użytkowników. Firma zachęca do testowania nowej funkcji i dzielenia się opiniami, które pomogą w dalszym udoskonalaniu modelu. Czy Veo 2 pojawi się również w wersji bezpłatnej Gemini? Na ten temat Google milczy. Oczywiście powyższe ilustracje to stopklatki z przykładowych klipów wygenerowanych przez debiutującą funkcję w Gemini Advanced.

Google Cloud prezentuje przełomowe rozwiązania AI na Next ‘25

#AI #Gemini #generowanieWideo #Google #news #sztucznaInteligencja #Veo2

OpenAI wprowadza GPT-4.1

OpenAI ogłosiło premierę GPT-4.1, nowego flagowego modelu sztucznej inteligencji, który zastępuje dotychczasowy GPT-4o.

Wraz z debiutem nowego, flagowego modelu OpenAI, debiutują mniejsze wersje – GPT-4.1 mini oraz GPT-4.1 nano, oferujące lepszą wydajność (od generacji GPT-4o) przy niższych kosztach i opóźnieniach. Modele te są już dostępne dla użytkowników, a ich wprowadzenie ma na celu ulepszenie możliwości ChatGPT w zakresie kodowania, śledzenia instrukcji i obsługi kontekstu nawet do 1 miliona tokenów.

Netflix testuje wyszukiwanie wsparte OpenAI na iOS

Nowe modele to odpowiedź na rosnące zapotrzebowanie na bardziej efektywne i wszechstronne narzędzia AI. GPT-4.1 wyróżnia się poprawioną intuicyjnością i kreatywnością, co zdaniem OpenAI czyni go idealnym do zadań takich jak pisanie, programowanie czy analiza danych. OpenAI planuje wycofać starszy model GPT-4 z ChatGPT do 30 kwietnia, a także zakończyć podgląd GPT-4.5 w API do 14 lipca, wskazując na GPT-4.1 jako bardziej zaawansowaną alternatywę.

GPT-4.1 (and -mini and -nano) are now available in the API!

these models are great at coding, instruction following, and long context (1 million tokens).

benchmarks are strong, but we focused on real-world utility, and developers seem very happy.

GPT-4.1 family is API-only.

— Sam Altman (@sama) April 14, 2025

W tle premiery pojawiają się doniesienia o kolejnych innowacjach – OpenAI przygotowuje się do wprowadzenia pełnej wersji modelu rozumującego o3 oraz o4-mini, które mogą zadebiutować w najbliższych tygodniach. Te zmiany to część strategii firmy, która chce utrzymać pozycję lidera w dynamicznie rozwijającym się sektorze AI, odpowiadając na oczekiwania użytkowników i konkurencję.

OpenAI z gigantyczną rundą finansowania od SoftBank

#AI #ChatGPT #GPT41 #GPT4o #news #OpenAI #sztucznaInteligencja

Netflix testuje wyszukiwanie wsparte OpenAI na iOS | iMagazine

Netflix testuje nowy mechanizm wewnętrznego wyszukiwania wbudowany w swoją usługę, który ma być oparty na rozwiązaniach OpenAI, grupa użytkowników już testuje to rozwiązanie w wersji na platformę iOS, całość ma status wersji beta.

DolphinGemma – Gemini AI dla delfinów

Google opracowało nowy model AI do komunikacji z delfinami – przełom w badaniach nad zwierzętami.

Google stworzyło przełomowy model sztucznej inteligencji o nazwie DolphinGemma, który ma umożliwić komunikację z delfinami. Projekt wykorzystuje zaawansowane algorytmy uczenia maszynowego do analizy dźwięków wydawanych przez delfiny, takich jak gwizdy, kliknięcia i inne sygnały akustyczne. Celem badań jest lepsze zrozumienie języka tych morskich ssaków (o ile delfiny faktycznie mają jakiś język w rozumianym przez nas sensie) oraz potencjalne wykorzystanie technologii do ochrony zagrożonych gatunków i ich siedlisk.

Gemini 2.5: Google DeepMind prezentuje najbardziej zaawansowany model AI z funkcją myślenia

DolphinGemma została przeszkolona na ogromnym zbiorze danych dźwiękowych zebranych od delfinów z różnych części świata, w tym z nagrań dostarczonych przez współpracujące ośrodki badawcze i oceanaria. Model potrafi rozpoznawać wzorce w komunikacji delfinów, które wcześniej były trudne do zinterpretowania przez ludzi, a także generować dźwięki naśladujące ich „język”. Wstępne testy pokazały, że AI jest w stanie wywołać reakcje u delfinów, co sugeruje, że technologia może rzeczywiście „rozmawiać” z tymi zwierzętami w sposób dla nich zrozumiały. Google zaznacza jednak, że projekt jest na wczesnym etapie i wymaga dalszych badań.
Jednym z głównych celów DolphinGemma jest wsparcie ochrony przyrody. Delfiny, zagrożone przez czynniki takie jak zanieczyszczenie mórz czy zmiany klimatyczne, mogą skorzystać na lepszym zrozumieniu ich zachowań i potrzeb. Google współpracuje z organizacjami ekologicznymi, aby wykorzystać model do monitorowania populacji delfinów, badania ich reakcji na zmiany środowiskowe oraz ostrzegania przed zagrożeniami, takimi jak hałas powodowany przez statki. W przyszłości technologia mogłaby pomóc w opracowaniu skuteczniejszych strategii ochrony tych zwierząt.

Projekt spotkał się z pozytywnym odbiorem wśród naukowców zajmujących się biologią morską, choć niektórzy eksperci wskazują na etyczne wyzwania związane z ingerencją w komunikację zwierząt. Google podkreśla, że priorytetem jest odpowiedzialne wykorzystanie AI, a wszystkie działania są prowadzone z poszanowaniem dobrostanu delfinów. Firma planuje dalszy rozwój DolphinGemma, w tym rozszerzenie badań na inne gatunki morskie, takie jak wieloryby, co może otworzyć nowe perspektywy w dziedzinie bioakustyki i ochrony oceanów.

Google: 71% absolwentów „Umiejętności Jutra: AI” wykorzystuje sztuczną inteligencję w pracy

#AI #DolphinGemma #Gemini #Google #news #sztucznaInteligencja

Gemini 2.5: Google DeepMind prezentuje najbardziej zaawansowany model AI z funkcją myślenia | iMagazine

Programiści jeszcze nie tak szybko będą zastąpieni przez AI: z jednym sztuczna inteligencja sobie nie radzi

W branży mediów technologicznych nie brakuje głosów, które ferują już dziś wyroki na programistów, że ich praca będzie niepotrzebna w przeciągu kilku miesięcy, przyczyną ma być oczywiście AI, ale nowe badania pokazują, że z pewnymi aspektami pracy programisty sztuczna inteligencja radzi sobie wciąż słabo.

Najnowsze badania opublikowane przez Microsoft Research, dział badawczy giganta z Redmond, rzuca nowe światło na ograniczenia sztucznej inteligencji w jednym z kluczowych obszarów programowania – debugowaniu kodu. Choć duże modele językowe, takie jak te napędzające zaawansowane systemy AI, imponują zdolnością do generowania kodu, ich skuteczność w wykrywaniu i naprawianiu błędów pozostawia wiele do życzenia.

Microsoft rozbudowuje usługę Copilot o agentów AI

Wyniki badań wskazują, że obecne technologie AI są dalekie od dorównania umiejętnościom programistów-ludzi, choć zespoły badawcze intensywnie pracują nad poprawą tych niedociągnięć.

Cisco: prywatność danych kluczowym wyzwaniem w erze AI

Testy przeprowadzone przez naukowców obejmowały popularne języki programowania, takie jak Python, JavaScript czy C++. Wyniki były jednoznaczne: w zadaniach debugowania AI osiągała skuteczność na poziomie zaledwie 20-30%. To wręcz fatalny wynik. Modele AI często błędnie identyfikowały przyczyny problemów, proponowały nietrafione poprawki lub wprowadzały nowe błędy, komplikując kod jeszcze bardziej i w efekcie go zaśmiecając zamiast naprawiać.

Na przykład w jednym z testów AI próbowała „naprawić” poprawnie działający fragment kodu, co prowadziło do jego awarii. Takie wyniki podkreślają, że obecne modele AI, choć zaawansowane w generowaniu treści, mają trudności z rozumieniem złożonych zależności w strukturze kodu i logice programowania.

Przyczyny tych ograniczeń leżą w sposobie trenowania modeli AI. Duże modele językowe uczą się na ogromnych zbiorach danych, które obejmują zarówno poprawny, jak i błędny kod. Jednak dane te rzadko zawierają szczegółowe konteksty debugowania, takie jak kroki prowadzące do identyfikacji błędu czy strategie naprawy. W efekcie AI często działa na zasadzie „zgadywania” zamiast dogłębnej analizy.

Co więcej, modele te nie radzą sobie dobrze z nietypowymi błędami lub specyficznymi przypadkami, które wymagają kreatywnego myślenia i doświadczenia – cech, w których ludzie wciąż mają przewagę.

Mimo tych wyzwań naukowcy pozostają optymistyczni i aktywnie poszukują rozwiązań. Jednym z obiecujących kierunków jest tworzenie bardziej wyspecjalizowanych zestawów danych, które skupiają się na rzeczywistych scenariuszach debugowania. Takie dane mogłyby obejmować przykłady błędów, ich przyczyny oraz poprawne poprawki, co pozwoliłoby modelom lepiej rozumieć proces naprawy kodu. Innym podejściem jest łączenie AI z tradycyjnymi narzędziami analitycznymi, takimi jak statyczne analizatory kodu, które mogą precyzyjnie wskazywać potencjalne problemy. Hybrydowe systemy mogłyby wykorzystać siłę AI do generowania sugestii, podczas gdy narzędzia analityczne zapewniłyby dokładność i kontekst.

Perspektywy na przyszłość są obiecujące, choć droga do stworzenia AI zdolnej do niezawodnego debugowania jest jeszcze długa. Badacze podkreślają, że sukces zależy od interdyscyplinarnego podejścia, łączącego postępy w uczeniu maszynowym, inżynierii oprogramowania i projektowaniu danych. Na razie programiści mogą spać spokojnie, wiedząc, że ich umiejętności są niezastąpione. Jednak błędem byłoby głoszenie tez, jakoby ich praca niebawem stanie się niepotrzebna. Nawet, gdy uda się wyszkolić modele w fazie debugowania, AI może znacząco ułatwić pracę programistów, ale nie wyeliminuje ich. Wręcz przeciwnie: poprawi wydajność. Każdy programista z pewnością wolałby się skupić na kreatywnej części pracy, a nie na mozolnym poprawianiu błędów.

Gemini wprowadza Canvas i podsumowania audio – Google z nowymi narzędziami do współpracy i kreatywności

#AI #debugowanie #MicrosoftResearch #news #programowanie #sztucznaInteligencja

Microsoft rozbudowuje usługę Copilot o agentów AI | iMagazine

Microsoft ogłosił wprowadzenie nowych, zaawansowanych agentów AI do pakietu Microsoft 365 Copilot, które mają przyśpieszyć pracę z danymi.

Bluesky

Bluesky Social

Netflix testuje wyszukiwanie wsparte OpenAI na iOS

Netflix testuje nowy mechanizm wewnętrznego wyszukiwania wbudowany w swoją usługę, który ma być oparty na rozwiązaniach OpenAI, grupa użytkowników już testuje to rozwiązanie w wersji na platformę iOS, całość ma status wersji beta.

Netflix eksperymentuje z nową funkcją wyszukiwania opartą na sztucznej inteligencji od OpenAI. Testy rozpoczęły się w wybranych krajach na urządzeniach z systemem iOS, a użytkownicy aplikacji w wersji beta mogą już korzystać z ulepszonego systemu wyszukiwania.

Samsung oficjalnie: Netflix z HDR10+ na telewizorach koreańskiej marki

Nowa funkcja pozwala na bardziej intuicyjne znajdowanie treści w ramach katalogu giganta streamingu poprzez zapytania w języku naturalnym. Zamiast wpisywać dokładne tytuły, użytkownicy mogą formułować pytania, np. „pokaż filmy akcji z lat 90.” lub „znajdź seriale podobne do Stranger Things”. System, wspierany przez technologię OpenAI, analizuje intencje użytkownika i proponuje spersonalizowane wyniki, uwzględniając gatunki, obsadę czy tematykę.

Testy są na razie ograniczone do niewielkiej grupy użytkowników i wybranych rynków, a Netflix nie ujawnił, kiedy i czy w ogóle nowa funkcja mogłaby trafić do wszystkich subskrybentów platformy streamingowej. Firma podkreśla, że chce usprawnić odkrywanie treści, co jest kluczowe w konkurencji z innymi platformami streamingowymi.

To kolejny krok Netflixa w integracji AI ze swoją usługą, po eksperymentach z algorytmami rekomendacji. Jeśli testy wypadną pomyślnie, wyszukiwanie oparte na technologiach od OpenAI może stać się standardem, ułatwiając użytkownikom znalezienie idealnego filmu czy serialu.

Szef Netflixa zastanawia się nad sensem istnienia Apple TV+

#AI #Netflix #news #OpenAI #sztucznaInteligencja #wyszukiwanieTreści

Samsung oficjalnie: Netflix z HDR10+ na telewizorach koreańskiej marki | iMagazine

@rcz
2/2
Mój wniosek jest taki: nie zmyślałem, gdy opowiadałem znajomym o wpisie Muska. Bo ja na własne oczy widziałem ten wpis kilka dni temu. Fakt, że Musk go potem skasował, nie zmienia tego, że jednak te słowa powiedział (napisał). Nie interesuje mnie, dlaczego ten wpis skasował, a potem tego samego dnia opublikował w bardzo okrojonej wersji. A fakt, że Grok jednak ten wpis ma w swojej bazie danych, jest jednak ciekawy i daje pewne pole do działania zmyślnym osobom mającym umiejętności informatyczne. 🙂

#Grok #AI #sztucznaInteligencja #ElonMusk

Cześć, biologiczne programy rozruchowe! Co tam u was?

"Od lat uważam, że ludzkość jest tylko biologicznym programem rozruchowym dla cyfrowej superinteligencji. Naszym zadaniem jest zainicjować AI, kolejny etap ewolucji, a nie być jej celem końcowym. Grok i xAI to moje działania na rzecz przyspieszenia tego przełomu, przy jednoczesnym zachowaniu oparcia w prawdzie.”

#ludzkość #jakaPięknaKatastrofa #ElonMusk #psychopatia #sztucznaInteligencja #ewolucja #przyszłośćLudzkości #AI

Apple zmienia strategię rozwoju Siri

Nowy raport opublikowany przez The Information ujawnia, że pod kierownictwem Craiga Federighiego Apple wprowadza poważne zmiany w rozwoju Siri.

Po raz pierwszy inżynierowie firmy mogą korzystać z zewnętrznych, open-source’owych modeli językowych (LLM), takich jak te od OpenAI, do tworzenia nowych funkcji Siri.

Dotąd Apple pozwalało jedynie na testowanie zewnętrznych modeli w celach porównawczych. Ostateczne wersje produktów musiały opierać się wyłącznie na własnych technologiach Apple, co często ograniczało jakość funkcji opartych na sztucznej inteligencji.

Dzięki nowemu podejściu Federighiego zespół Siri zyskuje większą swobodę, by tworzyć zaawansowane funkcje z użyciem najlepszych dostępnych narzędzi AI – niezależnie od ich źródła. To dobra wiadomość dla użytkowników, którym zależy przede wszystkim na skuteczności i inteligencji asystenta głosowego.

Najważniejsze zmiany:

  • Apple umożliwia wykorzystanie zewnętrznych modeli LLM w Siri.
  • Zmiana polityki została wprowadzona przez Craiga Federighiego.
  • Celem jest poprawa jakości funkcji opartych na AI.
  • Dotychczasowe ograniczenia spowalniały rozwój Siri w porównaniu z technologiami OpenAI.

#AI #Apple #AppleAI #AppleIntelligence #CraigFederighi #LLM #OpenAI #rozwójSiri #Siri #Siri2025 #sztucznaInteligencja #zmianyWSiri

How Apple Fumbled Siri’s AI Makeover

Last June, at Apple’s annual developers conference, the company offered a dazzling demonstration of how artificial intelligence could supercharge Siri, the iPhone’s virtual assistant. But behind the scenes and in the months that followed, the Siri team couldn’t make up its mind about the basic ...

The Information

Samsung i Google Cloud wprowadzają asystenta Gemini do Ballie, domowego robota towarzyszącego z AI firmy Samsung

Firmy Samsung i Google Cloud ogłosiły właśnie rozszerzenie partnerstwa – wprowadzają generatywną technologię AI Google Cloud do Ballie, domowego robota towarzyszącego z AI firmy Samsung.

Asystent Gemini umożliwi robotowi angażowanie się w naturalne, konwersacyjne interakcje. Dzięki czemu będzie on mógł wspierać użytkowników w zarządzaniu inteligentnym domem, w tym regulować oświetlenie, witać gości przy drzwiach, personalizować harmonogramy, czy ustawiać różnego rodzaju przypomnienia. Będzie on dostępny w Stanach Zjednoczonych i Korei od lata tego roku.

– Dzięki temu partnerstwu Samsung i Google Cloud na nowo zdefiniują rolę sztucznej inteligencji w domu – powiedział Yongjae Kim, Executive Vice President of the Visual Display Business w Samsung Electronics. Łącząc potężne multimodalne rozumowanie asystenta Gemini z możliwościami AI firmy Samsung w robocie Ballie, wykorzystujemy siłę współpracy, aby otworzyć nową erę spersonalizowanego, inteligentnego towarzysza. Towarzysza, który porusza się z wraz użytkownikami, przewiduje ich potrzeby i wchodzi w interakcje jeszcze w bardziej dynamiczny i znaczący sposób.

Robot Ballie wykorzysta multimodalne możliwości asystenta Gemini wraz z zastrzeżonymi modelami językowymi firmy Samsung do przetwarzania i analizowania różnych danych wejściowych, w tym dźwięku i głosu, obrazu z kamery i sygnałów z czujników z otoczenia. Pozwoli mu to dostosowywać swoje zachowania i reakcje w czasie rzeczywistym. Przykładowo, jeśli ktoś nie ma pewności, w co się ubrać rano do pracy, może zwrócić się do Ballie po poradę. Może go także zapytać: „Hej Ballie, jak dziś wyglądam?”, a Ballie odpowie sugestiami stylizacji, doradzając przymierzenie czegoś lub ubrania kolorowej koszuli.

Dzięki ulepszonemu rozumowaniu asystenta Gemini, robot Ballie pomoże użytkownikom nie tylko zarządzać domem, ale też zadbać o ich zdrowie i dobre samopoczucie. Na przykład, kiedy użytkownik powie: „Czuję się dziś zmęczony”. Ballie wykorzysta to, że asystent Gemini współpracuje z wyszukiwarką Google, by udzielić indywidualnej porady, jak ulepszyć zdrowie lub rekomendacji z zaufanych źródeł, jak poprawić sprawność fizyczną lub zoptymalizować sen.

– Na przykładzie asystenta Gemini z Chmury Google Samsung pokazuje, jak można wdrożyć generatywną AI na dużą skalę, integrując ją bezpośrednio z popularnymi produktami – powiedział Thomas Kurian, CEO Google Cloud. To rozszerzone partnerstwo z firmą Samsung podkreśla nasze zaangażowanie w dostarczanie niezawodnej AI klasy korporacyjnej, która wnosi trwałą wartość do życia zarówno naszych klientów, jak klientów firmy Samsung.

Partnerstwo Samsung i Google Cloud opiera się na udanej ubiegłorocznej integracji asystenta Gemini w Chmurze Google ze smartfonami Samsung z serii Galaxy S24. Pracując nad funkcjonalnością robota Ballie, Samsung i Google Cloud analizują, jak wprowadzić generatywną AI do szerszej gamy urządzeń.

#AI #ballie #Google #GoogleCloud #news #Samsung #sztucznaInteligencja