Google aktualizuje Gemini. Lepsze formatowanie, rozumienie obrazów i nowe wersje dla deweloperów

Google poinformowało o wprowadzeniu aktualizacji dla swojego modelu sztucznej inteligencji, Gemini. Zmiany obejmują dwie oddzielne ścieżki. Poniżej szczegóły.

Pierwsza ze ścieżek dotyczy ulepszeń dostępnych już teraz dla użytkowników aplikacji Gemini, korzystających z modelu 2.5 Flash , a druga to udostępnienie nowych, testowych wersji modeli dla deweloperów.

Co nowego w aplikacji Gemini?

Użytkownicy, którzy w aplikacji Gemini wybiorą model 2.5 Flash, mogą już zauważyć trzy kluczowe ulepszenia. Po pierwsze, odpowiedzi generowane przez AI mają teraz lepszą organizację i formatowanie, z wykorzystaniem nagłówków, list i tabel, co ułatwia ich zrozumienie.

Po drugie, Gemini ma lepiej radzić sobie z wyjaśnianiem złożonych zagadnień, na przykład podczas pomocy w zadaniach domowych, dzięki ulepszonym zdolnościom rozumowania i prezentowaniu odpowiedzi krok po kroku.

Po trzecie, poprawiono zdolność rozumienia obrazów – można teraz przesyłać bardziej szczegółowe zdjęcia lub diagramy, a Gemini je wyjaśni, uporządkuje lub streści. Jako przykład podano możliwość stworzenia fiszek na podstawie zdjęcia notatek.

Nowości dla deweloperów: Flash i Flash-Lite

Równolegle Google udostępniło deweloperom nowe, poglądowe wersje modeli Gemini 2.5 Flash i 2.5 Flash-Lite, które są dostępne w platformach AI Studio i Vertex AI. Firma zaznacza, że nie są to nowe wersje stabilne, a ich celem jest zebranie opinii, które pomogą w kształtowaniu przyszłych, oficjalnych wydań.

Nowa wersja testowa modelu

Wersja gemini-2.5-flash-preview-09-2025 charakteryzuje się lepszym wykorzystaniem narzędzi, co przekłada się na wyższą wydajność w złożonych, wieloetapowych zadaniach. Model ten ma być również znacznie bardziej efektywny kosztowo, osiągając lepsze rezultaty przy mniejszym zużyciu tokenów. Z kolei lżejszy model,

Z kolei odmiana gemini-2.5-flash-lite-preview-09-2025, ma znacznie lepiej radzić sobie z wykonywaniem skomplikowanych poleceń, generować bardziej zwięzłe odpowiedzi oraz oferować wyższą jakość tłumaczeń i lepsze rozumienie dźwięku oraz obrazu.

Google rozszerza dostępność tańszego abonamentu AI Plus o 40 nowych krajów. Niestety, wciąż nie dla Polski

#AI #AIStudio #aktualizacja #Gemini25Flash #GoogleGemini #modelJęzykowy #news #sztucznaInteligencja #VertexAI

Koniec z domysłami. Oto jakie są limity w darmowym i płatnym Gemini

Google wprowadza pełną transparentność w kwestii limitów użytkowania swojego asystenta AI.

Firma opublikowała oficjalną tabelę, która szczegółowo określa, na co mogą liczyć użytkownicy darmowej wersji Gemini, a co otrzymują subskrybenci płatnych planów Google AI Pro oraz Google AI Ultra. To koniec z niejasnymi określeniami i początek jasnych zasad.

Google Gemini for Home startuje 1 października

Co dostajemy za darmo?

Użytkownicy, którzy korzystają z Gemini bez dodatkowych opłat, mają do dyspozycji model 2.5 Pro z pewnymi ograniczeniami. Dzienny limit promptów (poleceń) wynosi 5. W ciągu doby można wygenerować lub edytować do 100 obrazów.

Funkcja pogłębionej analizy, Deep Research, jest limitowana do 5 raportów na miesiąc, przy czym korzysta z modelu 2.5 Flash, a nie Pro (to znaczne ograniczenie możliwości tego narzędzia). Wszyscy użytkownicy, niezależnie od planu, mogą wygenerować do 20 podsumowań audio dziennie. Okno kontekstowe w darmowej wersji wynosi 32 tysiące tokenów.

Plan Google AI Pro dla bardziej wymagających

Pierwszy próg płatny, Google AI Pro kosztujący w Polsce 97,99 zł miesięcznie (1 miesiąc gratis), znacząco zwiększa możliwości. Limit promptów dla modelu 2.5 Pro wzrasta do 100 dziennie. Możliwości graficzne również rosną – do 1000 generowanych lub edytowanych obrazów na dobę.

Znacznie potężniejsza staje się funkcja Deep Research, z której można korzystać do 20 razy dziennie w oparciu o model 2.5 Pro. Subskrybenci otrzymują także dostęp do generowania wideo – do 3 klipów dziennie za pomocą Veo 3 Fast (w wersji zapoznawczej). Ogromnym przeskokiem jest również okno kontekstowe, które rośnie z 32 tysięcy do 1 miliona tokenów.

Google AI Ultra dla profesjonalistów

Najwyższy i najdroższy plan, Google AI Ultra (1229,99 miesięcznie, ale przez pierwsze trzy miesiące płacisz 609,99 zł miesięcznie), jest skierowany do najbardziej zaawansowanych użytkowników. Limit promptów dla 2.5 Pro to aż 500 dziennie. Limit generowania obrazów pozostaje taki sam jak w planie Pro (1000 na dobę). Drastycznie wzrasta za to limit dla Deep Research – do 200 raportów dziennie. Możliwości wideo to 5 klipów na dobę z użyciem Veo 3. W tym planie pojawiają się także zupełnie nowe, ekskluzywne funkcje: Deep Think (do 10 promptów dziennie) oraz Scheduled actions (do 10 aktywnych akcji jednocześnie). Poniżej jeszcze zrzut tabeli od Google’a z aktualnymi ograniczeniami Gemini zależnie od posiadanego planu:

Zainteresowanych odsyłam również do odpowiedniego miejsca na witrynie wsparcia Google.

Google Gemini staje się osobistym nauczycielem. Startuje „Nauka ze wskazówkami”

#AI #cennikGemini #DeepResearch #DeepThink #Gemini25Pro #GeminiAIPro #GeminiAIUltra #generowanieObrazów #GoogleGemini #limityGemini #modelJęzykowy #news #sztucznaInteligencja #Veo3

Cisco udostępnia otwarty model AI dla cyberbezpieczeństwa. Ma być skuteczniejszy niż ChatGPT

Firma Cisco zaprezentowała nową, udoskonaloną wersję swojego specjalistycznego modelu językowego do zadań z zakresu cyberbezpieczeństwa.

Nowy model, Llama-3.1-FoundationAI-SecurityLLM-instruct-8B (w skrócie Foundation-sec-8B-Instruct), został zaprojektowany tak, aby działać jak gotowy do użycia, inteligentny asystent dla analityków bezpieczeństwa, rozumiejący polecenia w języku naturalnym zaraz po uruchomieniu.

Nowa wersja jest odpowiedzią na potrzeby społeczności. Jej poprzednik, model bazowy zaprezentowany w kwietniu, udowodnił, że mały, wyspecjalizowany model (8 miliardów parametrów) potrafi w testach branżowych przewyższyć znacznie większe, uniwersalne modele językowe. Brakowało mu jednak prostoty obsługi – wymagał dodatkowej konfiguracji. Nowy Foundation-sec-8B-Instruct rozwiązuje ten problem, łącząc specjalistyczną wiedzę z elastycznością i łatwością użycia znaną z popularnych chatbotów.

Gigantyczna platforma AI pod ochroną Cisco. ClamAV przeskanuje miliony modeli

Mały, ale potężny i gotowy do działania

Foundation-sec-8B-Instruct został wytrenowany wyłącznie na danych z zakresu bezpieczeństwa, a następnie dostrojony do wykonywania poleceń. Dzięki temu potrafi bez dodatkowego treningu realizować takie zadania jak tworzenie podsumowań, analiza sentymentu czy odpowiadanie na złożone pytania dotyczące cyberbezpieczeństwa. Model rozumie role w konwersacji, co pozwala na prowadzenie rozbudowanych dialogów i tworzenie zautomatyzowanych agentów.

Kluczową zaletą jest jego kompaktowa architektura. Model może być uruchomiony na pojedynczym procesorze graficznym (GPU), co czyni go dostępnym także dla organizacji o ograniczonych zasobach sprzętowych. Jest to w pełni otwarte oprogramowanie (open-source), co pozwala na jego wdrażanie lokalnie, w środowiskach odizolowanych od internetu (air-gapped) czy na urządzeniach brzegowych, bez uzależniania się od jednego dostawcy.

Praktyczne zastosowania w SOC i AppSec

Model został już przetestowany w realnych warunkach przez zespoły bezpieczeństwa, w tym w Cisco CSIRT i Cisco XDR. W centrach operacji bezpieczeństwa (SOC) wykorzystano go do klasyfikacji alertów, mapowania wskaźników zagrożeń do taktyk z bazy MITRE ATT&CK czy rekonstrukcji osi czasu incydentów, co znacząco przyspieszyło proces analizy i zredukowało liczbę fałszywych alarmów.

Z kolei zespoły odpowiedzialne za bezpieczeństwo aplikacji (AppSec) użyły modelu do symulacji ścieżek ataku, analizy kodu pod kątem wytycznych OWASP i generowania niestandardowych scenariuszy testowych, co pozwoliło na bardziej proaktywne podejście do zabezpieczania oprogramowania.

Plany na przyszłość

Cisco zapowiada dalszy, intensywny rozwój modelu. W planach jest m.in. rozszerzenie okna kontekstu do 16 tysięcy tokenów (co pozwoli analizować całe zbiory logów), obsługa wejść multimodalnych (np. zrzutów ekranu i logów w jednej konwersacji) oraz stworzenie jeszcze potężniejszej wersji o wielkości 70 miliardów parametrów.

Model Foundation-sec-8B-Instruct jest już publicznie dostępny na platformie Hugging Face, wraz z pełną dokumentacją i przykładami zastosowań.

Sztuczna inteligencja to miecz obosieczny dla naszej cyfrowej tożsamości. Nowy raport Cisco

#AI #AppSec #Cisco #cyberbezpieczeństwo #HuggingFace #Llama31 #LLM #MITREATTCK #modelJęzykowy #news #openSource #SoC #sztucznaInteligencja

AI nie myśli, a jedynie udaje. Naukowcy studzą entuzjazm wokół „sztucznej inteligencji”

W świecie zdominowanym przez zachwyty nad możliwościami sztucznej inteligencji, nowe badanie naukowców z Arizona State University rzuca na nie cień, który każe nam zweryfikować dotychczasowe przekonania.

Wyniki ich pracy sugerują, że imponujące zdolności „logicznego rozumowania” w modelach językowych (LLM), oparte na tzw. metodzie „łańcucha myśli” (chain-of-thought), to w rzeczywistości „kruchy miraż” – wyrafinowana iluzja, która rozpada się przy najmniejszej próbie wyjścia poza wyuczone schematy. Już wcześniej informowaliśmy o badaniach przeprowadzonych przez Apple, które negowały „geniusz” współczesnych zaawansowanych modeli AI, choć później wielu ekspertów podważało przyjęte założenia i metodykę, czy tym razem inni również podważą badania naukowców z ASU?

Iluzja myślenia: nowe badanie Apple podważa prawdziwe zdolności „rozumowania” AI

Kruchy miraż, czyli iluzja rozumowania

W ostatnich miesiącach branża AI mocno promuje modele, które zdają się „myśleć” krok po kroku, by rozwiązać skomplikowane problemy. Naukowcy z ASU postanowili sprawdzić, czy jest to prawdziwa umiejętność logicznego wnioskowania, czy jedynie zaawansowane naśladowanie wzorców. W tym celu stworzyli kontrolowane środowisko, w którym trenowali modele na bardzo prostych transformacjach tekstu, a następnie testowali je na zadaniach, które częściowo lub całkowicie wykraczały poza wzorce poznane na etapie szkolenia.

Wyniki okazały się druzgocące. Modele, które doskonale radziły sobie ze znanymi schematami, zawodziły „katastrofalnie”, gdy tylko zadanie nieznacznie odbiegało od tego, czego się nauczyły. Co więcej, często generowały one odpowiedzi, które miały pozornie poprawną ścieżkę rozumowania, ale prowadziły do błędnego wyniku, lub odwrotnie – potrafiły natrafić na prawidłową odpowiedź, stosując całkowicie nielogiczne kroki.

Wyuczona papuga, nie samodzielny myśliciel

Badanie wykazało, że nawet drobne zmiany w zadaniu, takie jak inna długość tekstu wejściowego lub wprowadzenie symboli nieobecnych w danych treningowych, powodowały gwałtowny spadek wydajności i poprawności odpowiedzi.

To dowodzi, że modele nie posiadają abstrakcyjnej zdolności rozumowania, a ich działanie jest jedynie „wyrafinowaną formą dopasowywania wzorców strukturalnych”. „Zamiast demonstrować prawdziwe zrozumienie tekstu, rozumowanie w stylu 'łańcucha myśli’ wydaje się być powielaniem wzorców nauczonych podczas treningu” – piszą autorzy badania.

„Fałszywa aura niezawodności” i jej zagrożenia

Największe niebezpieczeństwo, według naukowców, tkwi w zdolności modeli do generowania „płynnego nonsensu” – odpowiedzi, które brzmią przekonująco i logicznie, ale w rzeczywistości są błędne. Tworzy to „fałszywą aurę niezawodności”, która może być niezwykle groźna, zwłaszcza w tak kluczowych dziedzinach jak medycyna, finanse czy prawo.

Dlatego badacze stanowczo ostrzegają przed zrównywaniem wyników generowanych przez AI z ludzkim myśleniem i apelują o tworzenie testów, które będą weryfikować zdolność modeli do radzenia sobie z problemami spoza danych treningowych. Zainteresowanych odsyłam do treści artykułu naukowego na platformie Arxiv.

#AI #badania #dezinformacja #LLM #modelJęzykowy #myślenie #Nauka #news #sztucznaInteligencja #technologia

Nvidia buduje mózgi dla robotów. Nowy model AI Cosmos Reason pozwoli im „myśleć”

Nvidia, po ugruntowaniu swojej dominacji na rynku AI w centrach danych, oficjalnie rozpoczyna podbój kolejnej granicy – robotyki i fizycznej sztucznej inteligencji.

Podczas konferencji SIGGRAPH firma zaprezentowała pakiet nowych fundamentów dla deweloperów, na czele z Cosmos Reason, potężnym modelem AI, który ma dać maszynom zdolność rozumowania i planowania.

Czym jest Cosmos Reason?

Główną gwiazdą ogłoszenia jest Cosmos Reason – wizualno-językowy model o 7 miliardach parametrów, zaprojektowany specjalnie na potrzeby fizycznych zastosowań AI i robotów. Jego zadaniem jest służenie jako „model rozumujący”, który dzięki rozumieniu fizyki i posiadaniu pamięci, pozwala maszynom planować kolejne kroki w realnym świecie.

Zamiast tylko reagować na bodźce, roboty wyposażone w Cosmos Reason będą mogły analizować sytuację i podejmować logiczne decyzje. Nvidia wskazuje, że model ten znajdzie zastosowanie w planowaniu zadań przez roboty, analityce wideo czy kuracji danych.

Kompletny ekosystem dla fizycznej AI

Cosmos Reason to jednak tylko część większej układanki. Nvidia zaprezentowała cały ekosystem narzędzi mających przyspieszyć rozwój inteligentnych maszyn. W jego skład wchodzą również inne modele z rodziny Cosmos, takie jak Transfer-2, który przyspiesza generowanie syntetycznych danych do treningu AI na podstawie scen z symulatorów 3D. Firma ogłosiła także nowe biblioteki do rekonstrukcji neuronowej, które pozwalają symulować realny świat w 3D na podstawie danych z sensorów, oraz zintegrowała je z popularnym symulatorem CARLA.

Aby wesprzeć te ambitne plany od strony sprzętowej, Nvidia pokazała również nowe serwery dedykowane robotyce – RTX Pro Blackwell Server oraz platformę do zarządzania w chmurze Nvidia DGX Cloud.

Wszystkie te nowości składają się na wyraźny sygnał – Nvidia postrzega robotykę jako „kolejny wielki przypadek użycia” dla swoich potężnych procesorów graficznych. Po zdominowaniu rynku treningu AI dla modeli językowych, firma chce teraz stworzyć kompletny, zintegrowany system operacyjny dla następnej generacji autonomicznych robotów, umacniając swoją pozycję jako kluczowego dostawcy technologii dla całej rewolucji AI.

Zwrot w wojnie o chipy? Nvidia wznawia sprzedaż układów H20 do Chin

#AI #CosmosReason #gpu #modelJęzykowy #news #nvidia #roboty #robotyka #SIGGRAPH #sztucznaInteligencja

OpenAI ugina się pod presją użytkowników. GPT-4o powraca po fali krytyki nowego GPT-5

Kilka dni po premierze swojego najnowszego modelu GPT-5, firma OpenAI podjęła decyzję o przywróceniu dostępu do jego poprzednika, GPT-4o.

Krok ten jest bezpośrednią odpowiedzią na falę głośnej krytyki ze strony użytkowników, którzy po aktualizacji, domyślnie ustawiającej GPT-5, utracili możliwość wyboru starszego modelu.

Problem polegał na tym, że po wdrożeniu GPT-5, który firma określiła jako „najmądrzejszy, najszybszy i najbardziej użyteczny model do tej pory”, wielu subskrybentów uznało jego styl pisania za znacznie gorszy. W mediach społecznościowych i na forach internetowych, takich jak Reddit, pojawiły się liczne skargi, że odpowiedzi nowego AI są „sterylne”, „suche i zwięzłe”. Niektórzy posunęli się nawet do stwierdzenia, że opłakują utratę GPT-4o, którego uważali za swojego „przyjaciela i powiernika”.

Na krytykę zareagował sam prezes OpenAI, Sam Altman. Przyznał, że początkowe problemy z wdrożeniem mogły sprawić, że GPT-5 wydawał się „znacznie głupszy”. W odpowiedzi na głosy użytkowników, Altman ogłosił na platformie X (dawniej Twitter), że subskrybenci usługi Plus ponownie będą mogli wybrać, czy chcą korzystać z GPT-5, czy z GPT-4o. „Z pewnością nie doceniliśmy tego, jak bardzo niektóre rzeczy, które ludzie lubią w GPT-4o, mają dla nich znaczenie, nawet jeśli GPT-5 działa lepiej pod większością względów” – napisał Altman.

Wdrożenie GPT-5 bardziej wyboiste, niż zakładano. Sam Altman przyznaje: „przełącznik się zepsuł”

Powrót GPT-4o został przyjęty z entuzjazmem, jednak nie ma gwarancji, że starszy model pozostanie dostępny na stałe. Sam Altman zaznaczył, że firma będzie obserwować wykorzystanie przywróconego modelu, zastanawiając się, jak długo oferować starsze wersje. Obecnie priorytetem OpenAI jest dokończenie wdrażania GPT-5 i wprowadzenie zmian, które uczynią go „cieplejszym” w odbiorze. Dla użytkowników, którzy zdążyli przywiązać się do GPT-4o, może to być jednak dopiero początek końca.

Wyciekł mózg GPT-5. Jak myśli i działa nowa generacja ChatGPT?

#AI #GPT4o #GPT5 #krytyka #modelJęzykowy #news #OpenAI #SamAltman #subskrypcjaPlus #sztucznaInteligencja #technologia

GPT-5 – co warto wiedzieć o najnowszej sztucznej inteligencji od OpenAI

Premiera GPT-5 od OpenAI to znacznie więcej niż tylko prezentacja kolejnego, większego modelu językowego. Wczytałem się w dość techniczną oficjalną informację opublikowaną przez OpenAI (link podaję na końcu, miło mi będzie, gdy przeczytacie co napisałem).

Zatem czym jest właściwie GPT-5? To nie tylko większy, nowszy model AI. To przede wszystkim demonstracja nowego, inteligentnego podejścia do samej architektury sztucznej inteligencji, gdzie kluczem do sukcesu nie jest już tylko surowa moc, ale wydajność, precyzja i zdolność do dynamicznego zarządzania własnymi zasobami. Analiza techniczna nowości pokazuje, że największe przełomy dokonały się w obszarach, które były dotąd największymi bolączkami AI.

Nowa architektura hybrydowa – inteligentny dyspozytor w sercu modelu

Największą innowacją w GPT-5 jest jego hybrydowa, zunifikowana architektura, która w czasie rzeczywistym żongluje dostępnymi zasobami. Zamiast jednego, monolitycznego modelu, który z równą mocą próbuje odpowiedzieć na proste pytanie o pogodę i rozwiązać złożony problem programistyczny, GPT-5 działa jak inteligentny system z trzema kluczowymi elementami:

  • Model podstawowy: zoptymalizowany pod kątem szybkości i wydajności, obsługuje większość prostych i standardowych zapytań.
  • Model głębokiego rozumowania („GPT-5 thinking”): znacznie potężniejszy, ale i bardziej zasobożerny moduł, aktywowany do zadań wymagających zaawansowanej logiki, wieloetapowej analizy czy kreatywności.
  • Router czasu rzeczywistego (real-time router, tak nazywa to rozwiązanie samo OpenAI): to „mózg” całej operacji. Jest to mechanizm, który na bieżąco analizuje zapytanie użytkownika i decyduje, czy do jego obsługi wystarczy szybki model podstawowy, czy też należy zaangażować potężniejszy model „thinking”. Co istotne, router jest nieustannie trenowany na podstawie realnych sygnałów od użytkowników – analizuje m.in. wskaźniki satysfakcji z odpowiedzi, poprawność merytoryczną oraz to, kiedy użytkownicy sami decydują się na przełączenie modelu, co pozwala mu z czasem stawać się coraz bardziej precyzyjnym dyspozytorem.

Mierzalna wojna z halucynacjami – dane mówią same za siebie

OpenAI po raz pierwszy przedstawiło tak konkretne dane dotyczące redukcji tzw. halucynacji, czyli generowania przez model fałszywych informacji. Firma przyznaje, że to jeden z kluczowych priorytetów, a postęp w tej dziedzinie jest mierzalny i znaczący. Czym konkretnie chwali się OpenAI?

Jak się okazuje, w porównaniu do swojego poprzednika, GPT-4o, nowy model GPT-5 (z włączonym wyszukiwaniem w sieci) generuje odpowiedzi, które są o około 45% mniej narażone na zawieranie błędów faktograficznych. Super wynik, ale nie rezygnujemy z czerwonej lampki w głowie. Mniej o 45% to nie kompletna likwidacja halucynacji AI. Trzeba być świadomym, że nawet GPT-5 może w pewnych scenariuszach nagiąć fakty. Innymi słowy, wciąż nie powinniśmy ślepo brać na wiarę jego wyników.

Bardzo ciekawie wygląda porównanie przy zadaniach wymagających głębokiej analizy. Gdy GPT-5 korzysta z modelu „thinking”, jego odpowiedzi są aż o 80% mniej podatne na błędy faktograficzne w zestawieniu z modelem OpenAI o3. Jednak ponownie zwracam uwagę, 80 procent to nie 100 procent. Być może stuprocentowej pewności nie zyskamy nigdy, bo halucynacje stanowią inherentny mechanizm wbudowany w każdą sieć neuronową, także tą, którą każdy z nas ma pod sklepieniem własnej czaszki.

Niemniej tak duży skok w precyzji i wiarygodności to efekt nie tylko lepszego wytrenowania, ale właśnie nowej architektury, która pozwala dedykować większą moc obliczeniową do weryfikacji i analizy faktów w złożonych zagadnieniach.

Nowa filozofia bezpieczeństwa: „bezpieczne uzupełnienia”

Kolejnym fundamentalnym filarem GPT-5 jest całkowicie nowe podejście do kwestii bezpieczeństwa, które OpenAI nazywa „bezpiecznymi uzupełnieniami” (safe completions). Jego celem jest maksymalizacja użyteczności modelu przy jednoczesnym, bezkompromisowym zachowaniu bezpieczeństwa. W praktyce oznacza to, że GPT-5 jest znacznie bardziej odporny na próby złamania jego zabezpieczeń (tzw. jailbreaking) i wymuszenia generowania treści niebezpiecznych, nieetycznych lub szkodliwych. Model jest teraz znacznie mniej skłonny do kłamania lub celowego zniekształcania informacji, nawet pod presją manipulacyjnych zapytań.

Zamiast kategorycznej odmowy, która często frustrowała użytkowników, GPT-5 potrafi reagować w bardziej inteligentny sposób. Jeśli bezpośrednia odpowiedź na pytanie mogłaby być szkodliwa, model może odpowiedzieć na nie częściowo lub na wyższym, bardziej ogólnym poziomie. Jest też w stanie wyjaśnić użytkownikowi, dlaczego nie może udzielić wprost odpowiedzi na potencjalnie niebezpieczne zapytanie, a następnie zaoferować bezpieczne i konstruktywne alternatywy. To podejście ma na celu edukowanie użytkowników i kierowanie konwersacji na bezpieczniejsze tory, zamiast nagłego jej ucinania.

Wydajność i nowe zdolności – mniej znaczy więcej

Kolejnym technicznym „mięsem” jakie udało mi się odnaleźć w oficjalnej dokumentacji OpenAI jest skok w wydajności nowego modelu. GPT-5 (w trybie „thinking”) realizuje zadania wymagające zaawansowanych zdolności, zużywając przy tym od 50% do 80% mniej tzw. tokenów wyjściowych niż model o3 (czyli ten z serii rozumujących, przypominam, że GPT-4/4.1 nie są modelami typu reasoning (rozumującymi). W praktyce oznacza to, że odpowiedzi są nie tylko generowane szybciej i mniejszym kosztem obliczeniowym, ale są też bardziej zwięzłe i precyzyjne.

Ta zwiększona efektywność pozwala modelowi lepiej radzić sobie w takich dziedzinach jak rozumowanie wizualne, „agentowe” pisanie kodu (gdzie model samodzielnie planuje, tworzy i debuguje kod) oraz rozwiązywanie problemów naukowych na poziomie akademickim. Zdolność do bardziej skondensowanego, ale trafnego generowania danych otwiera drogę do bardziej skomplikowanych i wiarygodnych zastosowań w biznesie i nauce.

Hierarchia dostępu – techniczna strategia dla rynku

Zresztą sam sposób udostępnienia GPT-5 również zdradza techniczną strategię OpenAI. Stworzenie lżejszej wersji „GPT-5 mini” dla darmowych użytkowników po wyczerpaniu limitów to sprytny sposób na zarządzanie ogromnym obciążeniem serwerów przy jednoczesnym zachowaniu dostępności usługi.

Z kolei zapowiedź GPT-5 Pro dla klientów biznesowych i z sektora edukacji sugeruje istnienie jeszcze potężniejszej, być może wolniejszej, ale i najdokładniejszej wersji modelu, przeznaczonej do najbardziej krytycznych zastosowań profesjonalnych.

Podsumowując, GPT-5 to nie tylko ewolucja, ale przemyślana rewolucja w architekturze. OpenAI stawia na inteligentne zarządzanie zasobami, mierzalną poprawę jakości i skalowalną wydajność, co w ostatecznym rozrachunku może okazać się znacznie ważniejsze niż sam przyrost liczby parametrów modelu.

OpenAI ogłasza GPT-5!

#API #architekturaAI #bezpieczeństwoAI #ChatGPT #GPT5 #GPT5Thinking #halucynacjeAI #LLM #modelJęzykowy #news #OpenAI #routing #sztucznaInteligencja #tokenizacja #uczenieMaszynowe

Chiński Z.ai rzuca rękawicę gigantom. Nowy model AI GLM-4.5 ma być otwarty, tani i rekordowo wydajny

I lepszy od modelu DeepSeek. Startup Z.ai zaprezentował nowe rozwiązanie – GLM-4.5. Jest to model AI udostępniony w formule open source, który ma być jeszcze tańszy, wydajniejszy i „bystrzejszy” od swojego głośnego, chińskiego poprzednika.

Nowy model, GLM-4.5, wyróżnia się tak zwaną „agentową” architekturą, co oznacza, że potrafi automatycznie dzielić złożone zadania na mniejsze etapy, by wykonać je precyzyjniej. Co więcej, jest o połowę mniejszy od DeepSeeka i do działania potrzebuje podobno zaledwie ośmiu specjalistycznych chipów Nvidia H20, stworzonych na potrzeby chińskiego rynku z uwzględnieniem amerykańskich restrykcji eksportowych.

Nowy model GLM-4.5 to dziś najbardziej zaawansowana (publicznie znana) chińska konstrukcja oparta na architekturze MoE (Mixture of Experts), dostępna w dwóch wariantach: flagowym z 355 miliardami parametrów oraz lżejszej wersji Air ze 106 miliardami parametrów. Architektura „agentowa” pozwala mu na autonomiczne planowanie i wykonywanie złożonych, wieloetapowych zadań. Według testów producenta, model Z.ai osiągnął trzeci wynik na świecie w branżowych benchmarkach, plasując się jednocześnie na pierwszym miejscu wśród wszystkich modeli typu open-source. Co niezwykle istotne, jego wysoka wydajność została osiągnięta przy relatywnie niskich wymaganiach sprzętowych.

Z.ai pozycjonuje swój produkt jako „prawdziwie otwartą alternatywę” dla zamkniętych, autorskich systemów, które dominują na rynku. Model jest dostępny na otwartej licencji, co daje firmom większą kontrolę i transparentność. Jednak to właśnie koszty stanowią jego największą przewagę. Według oficjalnego cennika, koszt przetwarzania miliona tokenów (fragmentów słów) to zaledwie 11 centów za dane wejściowe i 28 centów za dane wyjściowe. Dla porównania, w przypadku konkurencyjnego modelu DeepSeek R1 koszt tokenów wyjściowych to 2,19 dolara, co pokazuje ogromny (wręcz niewiarygodny) skok w optymalizacji kosztowej.

Dynamiczny rozwój chińskich firm AI ma coraz większe znaczenie geopolityczne. Gdy na początku roku DeepSeek zaprezentował swoją wydajność, wywołało to chwilowe załamanie kursów akcji amerykańskich gigantów technologicznych. Sukcesy Z.ai, firmy założonej w 2019 roku, która zebrała już ponad 1,5 mld dolarów od inwestorów takich jak Alibaba i Tencent, również nie pozostały niezauważone. Firma została wymieniona przez OpenAI jako jeden z nielicznych na świecie konkurentów zdolnych do budowy rywalizujących modeli, a także trafiła do prestiżowego raportu Stanford University „AI Index Report 2025”. Jednocześnie ten szybki postęp wzbudził niepokój w Waszyngtonie – startup Z.ai został wpisany na listę podmiotów objętych amerykańskimi restrykcjami handlowymi.

Trening modelu DeepSeek nie kosztował 6 mln dolarów, lecz 1,3 miliarda dolarów – raport SemiAnalysis

#AI #chiny #DeepSeek #geopolityka #GLM45 #MixtureOfExperts #modelJęzykowy #modeleJęzykowe #news #openSource #sztucznaInteligencja #technologia #usa #ZAi #Zhipu

GPT-5 może zadebiutować już w sierpniu. OpenAI przygotowuje nowy, potężny model AI

OpenAI przygotowuje się do premiery swojego najnowszego, flagowego modelu sztucznej inteligencji, GPT-5.

Jak donosi serwis The Verge, powołując się na źródła zaznajomione z planami firmy, debiut może nastąpić już w sierpniu. Informacje te pojawiają się krótko po tym, jak CEO firmy, Sam Altman, zapowiedział, że GPT-5 zostanie wydane „wkrótce”.

Nowy model ma być próbą unifikacji i uproszczenia oferty produktowej OpenAI. Zgodnie z zapowiedziami, GPT-5 połączy zdolności multimodalne znane z serii GPT z zaawansowanymi możliwościami rozumowania (tzw. reasoning), które były rozwijane w modelach serii „o”. Romain Huet z OpenAI potwierdził, że przełom w rozumowaniu z serii O i przełom w multimodalności z serii GPT zostaną zunifikowane, i to będzie GPT-5.

ChatGPT Agent już dostępny w aplikacji na Maca. AI, które samo wykona za ciebie zadania

Spekulacje na temat zbliżającej się premiery podsyca sam Altman, który w niedawnym podcaście zademonstrował możliwości modelu, nazywając go wprost „GPT-5”. Ponadto w sieci zauważono już odniesienia do wersji gpt-5-reasoning-alpha, co sugeruje, że model wszedł w końcową fazę testów. Już w maju inżynierowie Microsoftu mieli przygotowywać pojemność serwerów pod nowy model, choć wyzwania związane z testowaniem opóźniły pierwotny harmonogram.

Sam Altman wskazuje zawód, który AI wyeliminuje jako pierwszy. To dopiero początek

Według The Verge, GPT-5 ma być dostępne w kilku edycjach, w tym w wersjach „mini” i „nano” dostępnych przez API. Zanim jednak na rynek trafi GPT-5, OpenAI wciąż planuje wydać swój pierwszy od 2019 roku model o otwartej wadze (open-weights). Jego premiera jest jednak opóźniona z powodu konieczności przeprowadzenia dodatkowych testów bezpieczeństwa.

Premiera GPT-5 jest jednym z najbardziej oczekiwanych wydarzeń w branży AI od czasu debiutu GPT-4 w marcu 2023 roku. Nowy model ma być nie tylko potężniejszy i lepszy w kodowaniu, ale także stanowić krok w kierunku bardziej zintegrowanych i wszechstronnych systemów sztucznej inteligencji.

#AI #API #GPT4 #GPT5 #LLM #modelJęzykowy #news #OpenAI #SamAltman #sztucznaInteligencja #technologia #TheVerge