NVIDIA wychodzi z serwerowni. Sztuczna inteligencja przejmuje maszyny i satelity

Podczas tegorocznej konferencji GTC dyrektor generalny NVIDII, Jensen Huang, wysłał rynkowi jasny komunikat: era sztucznej inteligencji zamkniętej w przeglądarkowych czatbotach właśnie się kończy.

Nowe technologie giganta mają stanowić układ nerwowy dla fizycznych maszyn, autonomicznych aut, a nawet infrastruktury kosmicznej.

Kierunek: przemysł

Prezentacja NVIDII wyraźnie ucieka od teoretycznych rozważań o modelach językowych na rzecz twardego, przemysłowego wdrożenia. Firma zaprezentowała między innymi zaawansowany system autonomicznej jazdy Alpamayo 1.5, wspierany warstwą bezpieczeństwa Halos OS, który potrafi podejmować decyzje w chaotycznym, rzeczywistym ruchu drogowym.

To nie są odległe plany badawcze – technologia jest już wdrażana we współpracy z takimi gigantami jak Mercedes-Benz czy Toyota, a docelowo w 2027 roku zasili flotę w pełni autonomicznych taksówek Ubera w Los Angeles i San Francisco.

Szef NVIDIA ogłasza przełom. Autonomiczne pojazdy wjeżdżają na drogi

Dane syntetyczne i kosmiczne serwerownie

Największym wąskim gardłem w rozwoju robotyki był do tej pory brak odpowiedniej ilości danych treningowych. Zbieranie ich w świecie rzeczywistym jest po prostu zbyt wolne i kosztowne. NVIDIA zaprezentowała więc rozwiązanie tego problemu: nową infrastrukturę „Physical AI Data Factory” napędzaną modelami Cosmos. System ten potrafi generować syntetyczne dane treningowe na masową skalę, co oznacza, że maszyny nie muszą już uczyć się w fizycznym świecie – środowiska wirtualne same wykreują dla nich niezbędne scenariusze.

Gigant zamierza również przenieść obliczenia AI tam, gdzie do tej pory było to inżynieryjnie niemal niemożliwe. Zapowiedziany moduł „Vera Rubin Space-1” ma działać bezpośrednio na satelitach. Zamiast przesyłać gigabajty surowych danych na Ziemię, sprzęt NVIDII ma je przetwarzać już na orbicie, radząc sobie ze specyficznymi warunkami próżniowymi i problemami z chłodzeniem. To dowód na to, że firma buduje fundamenty pod świat, w którym sztuczna inteligencja działa całkowicie w tle, napędzając naszą rzeczywistość w sposób równie nieprzerwany, co prąd elektryczny.

#AIWKosmosie #Alpamayo15 #autonomiczneTaksówkiUber #JensenHuang #modeleCosmosNVIDIA #NVIDIAGTC2026 #PhysicalAIDataFactory #rozwójRobotyki #VeraRubinSpace1

Polski projekt AI na scenie NVIDIA GTC. Debiutuje Bielik Minitron 7B

Podczas prestiżowej konferencji NVIDIA GTC 2026 w San Jose polska sztuczna inteligencja miała swój ważny moment.

Rodzima fundacja SpeakLeash zaprezentowała projekt Bielik Minitron 7B, wpisując się w globalny trend tworzenia suwerennych i zoptymalizowanych technologii. Prezentacja odbyła się w ramach bloku tematycznego poświęconego idei „Sovereign AI”.

Nowy algorytm to efekt technologicznej współpracy i wykorzystania zaawansowanych narzędzi dostarczonych przez amerykańskiego giganta. Zamiast ścigać się na potężne, pochłaniające ogromne ilości prądu modele, twórcy Bielika postawili na inżynieryjną optymalizację, która ma lepiej odpowiadać na aktualne potrzeby rynku biznesowego.

Skomplikowana inżynieria i mniejsze koszty

Wykorzystując technologię NVIDIA NeMo oraz metodologię Minitron, dokonano destylacji i przycinania dotychczasowej struktury sieci neuronowej. Jak zapowiedziano podczas prezentacji, zastosowane techniki pozwalają na znaczną redukcję rozmiaru samego modelu oraz drastyczne skrócenie czasu potrzebnego na generowanie odpowiedzi.

Twórcy wskazują, że pomimo tych architektonicznych cięć, system ma zachowywać jakość i dokładność na poziomie zbliżonym do pełnowymiarowych rozwiązań. Wariant o wielkości siedmiu miliardów parametrów (7B) pozycjonowany jest jako złoty środek, łączący zaawansowane zdolności logicznego wnioskowania z szybkością działania wymaganą przy komercyjnych wdrożeniach.

Suwerenność danych w biznesie

Bielik Minitron 7B został zaprojektowany z myślą o lokalnych wdrożeniach w administracji publicznej, ochronie zdrowia, sektorze finansowym oraz edukacji. Sprawniejsze wnioskowanie ma docelowo przełożyć się na użyteczność w rozbudowanych systemach analitycznych czy zautomatyzowanej obsłudze klienta.

Kluczowym aspektem pozostaje promowana na wydarzeniu idea „Open Sovereign AI”. Twórcy stawiają na otwarty model udostępniania technologii, co w założeniu pozwoli rodzimym przedsiębiorstwom na wdrażanie algorytmu na własnych, całkowicie zamkniętych serwerach. Takie podejście daje szansę na zachowanie pełnej kontroli nad firmowymi tajemnicami, minimalizując ryzyko związane z przesyłaniem poufnych danych do zewnętrznych chmur obliczeniowych. To ważny krok w kierunku budowania niezależnych narzędzi dla nowoczesnej gospodarki.

Oto Bielik – Polacy też mają swoją własną AI opartą na LLM

#BielikMinitron7B #modeleLLMDlaBiznesu #NVIDIAGTC2026 #NVIDIANeMo #optymalizacjaAI #polskaSztucznaInteligencja #SpeakLeash #suwerenneAI

Szef NVIDIA ogłasza przełom. Autonomiczne pojazdy wjeżdżają na drogi

Na konferencji GTC 2026 trwającej właśnie w San Jose szef NVIDIA, Jensen Huang, wygłosił zdanie, które przejdzie do historii branży motoryzacyjnej: „Nadszedł moment ChatGPT dla autonomicznych samochodów”.

Amerykański gigant ogłosił potężne rozszerzenie partnerstw z największymi producentami, co oznacza, że w pełni samodzielne maszyny stają się rynkową rzeczywistością, a nie tylko odległą wizją.

Huang zaprezentował najnowsze osiągnięcia w dziedzinie fizycznej sztucznej inteligencji. Platforma NVIDIA DRIVE Hyperion, napędzana nowymi, otwartymi modelami AI (Alpamayo 1.5), zyskała właśnie potężnych partnerów. Do programu dołączyły takie marki jak BYD, Hyundai, Nissan oraz Geely. Uzupełniają one imponującą listę dotychczasowych współpracowników, na której znajdują się już między innymi Mercedes-Benz, Toyota, GM czy Jaguar Land Rover.

Czwarty poziom autonomii staje się faktem

Współpraca ta skupia się na osiągnięciu czwartego poziomu jazdy autonomicznej. Oznacza to pojazdy, które potrafią poruszać się po ulicach całkowicie bez nadzoru i ingerencji ze strony człowieka.

Infrastruktura firmy NVIDIA pozwala na jednoczesne analizowanie obrazu z kilkunastu kamer, danych z radarów i lidarów. Co najważniejsze, nowe modele sztucznej inteligencji potrafią wyciągać wnioski i samodzielnie uczyć się reakcji na nietypowe, trudne do przewidzenia sytuacje na drogach. Sprzęt i oprogramowanie giganta z Santa Clara staną się wkrótce cyfrowym „mózgiem” dla milionów aut na całym świecie.

Uber zamawia flotę robotaksówek

Prawdziwym trzęsieniem ziemi z punktu widzenia codziennego transportu jest jednak rozszerzona umowa z firmą Uber. Obie korporacje ogłosiły plan masowego wprowadzenia na ulice autonomicznych pojazdów (robotaksówek), napędzanych w całości oprogramowaniem NVIDIA DRIVE AV.

Pilotażowe usługi wystartują już w pierwszej połowie 2027 roku w Los Angeles i San Francisco. Ambicje są jednak znacznie większe – do 2028 roku autonomiczna flota Ubera ma obsługiwać pasażerów w 28 miastach na czterech kontynentach. To już nie są mgliste zapowiedzi badawcze, ale konkretny harmonogram wdrożeń. Branża motoryzacyjna właśnie wcisnęła pedał gazu, a sztuczna inteligencja ostatecznie przejmuje kierownicę.

Prawo Moore’a oficjalnie martwe. NVIDIA przyznaje, że sztuczna inteligencja zmyśla obraz na Twoim ekranie

#AIWMotoryzacji #autonomiczneSamochody #BYD #hyundai #JensenHuang #Level4Autonomy #Nissan #NVIDIADRIVEHyperion #NVIDIAGTC2026 #robotaksówki #UberAutonomous
NVIDIA GTC Keynote 2026

YouTube