Meta stawia na atom. Gigantyczna inwestycja w energię dla systemów AI

Spółka macierzysta Facebooka i Instagrama ogłosiła zawarcie serii umów, które mają zapewnić jej dostęp do nawet 6,6 GW energii jądrowej.

Meta nawiązała współpracę z firmami Vistra, TerraPower oraz Oklo, aby zasilić swoje energochłonne centra danych, stanowiące fundament dla rozwoju sztucznej inteligencji. Plan zakłada zarówno wsparcie istniejących elektrowni, jak i budowę nowoczesnych reaktorów nowej generacji.

Decyzja technologicznego giganta podyktowana jest rosnącym zapotrzebowaniem na stabilną energię elektryczną, niezbędną do trenowania i obsługi modeli AI. Jak wynika z komunikatu, ambicją firmy jest stworzenie „osobistej superinteligencji”, co wymaga infrastruktury o niespotykanej dotąd skali. W przeciwieństwie do źródeł odnawialnych zależnych od pogody, energetyka jądrowa zapewnia stałe dostawy prądu (tzw. base load), co jest kluczowe dla ciągłości pracy serwerowni.

Reanimacja starych bloków i zwiększenie mocy

W ramach umowy z firmą Vistra, Meta sfinansuje przedłużenie żywotności oraz modernizację trzech działających elektrowni jądrowych: Perry i Davis-Besse w Ohio oraz Beaver Valley w Pensylwanii.

Porozumienie przewiduje nie tylko zakup 2,1 GW energii, ale także inwestycje w tzw. uprating, czyli techniczne zwiększenie mocy reaktorów. Dzięki temu do początku lat 30. do sieci w regionie PJM (obsługującym wschodnie stany USA) trafi dodatkowe 433 MW mocy, zasilając między innymi superklaster obliczeniowy Prometheus.

Inwestycja w technologie przyszłości

Meta nie ogranicza się do konwencjonalnego atomu. Umowa z TerraPower zakłada budowę dwóch jednostek typu Natrium o łącznej mocy 690 MW, które mają zostać oddane do użytku już w 2032 roku. Firma zapewniła sobie również prawo do energii z sześciu kolejnych planowanych jednostek, co łącznie może dać 2,8 GW mocy do 2035 roku. Technologia Natrium łączy reaktory na prędkich neutronach z magazynami soli stopionej, co pozwala na elastyczne zarządzanie produkcją energii.

Równolegle rozwijana będzie współpraca z firmą Oklo, specjalizującą się w małych reaktorach (SMR). W hrabstwie Pike w stanie Ohio powstać ma kampus energetyczny, który może dostarczyć do 1,2 GW czystej energii. Pierwsze reaktory Aurora Powerhouse, oparte na technologii powielającej paliwo, mają rozpocząć pracę około 2030 roku. Jest to jeden z największych korporacyjnych zakupów energii jądrowej w historii USA, co potwierdza, że Big Tech staje się de facto jednym z głównych rozgrywających na rynku energetycznym.

Facebook to cybernowotwór, który toczy nasze umysły. Czas na radykalną chemioterapię, a nie pudrowanie gangreny [felieton]

#centraDanych #energiaJądrowa #Meta #news #Oklo #reaktorySMR #sztucznaInteligencja #TerraPower #Vistra

Centra danych zmieniają gospodarkę – wyścig o gigawaty trwa na całego

Czy najnudniejsze budynki świata właśnie zmieniają bieg gospodarki? Te wielkie, bezokienne kostki z klimatyzatorami na dachu coraz częściej kosztują po miliardzie dolarów – i wyrastają szybciej, niż zdążymy powiedzieć „gen AI”.

Czytaj dalej:
https://pressmind.org/centra-danych-zmieniaja-gospodarke-wyscig-o-gigawaty-trwa-na-caego/

#PressMindLabs #centradanych #gridcare #przylaczaenergetyczne #stargate #sztucznainteligencja

AI jest tak głodne energii, że nakarmimy je… silnikami naddźwiękowymi. Boom Supersonic wchodzi na ląd

Sztuczna inteligencja pożera prąd w takim tempie, że konwencjonalne sieci energetyczne przestają wystarczać.

Z odsieczą przychodzi firma, która miała budować następcę Concorde’a. Jej silniki odrzutowe, zanim wzbiją się w powietrze, trafią do serwerowni.

Jesse Orrall z CNET donosi o zaskakującym zwrocie akcji w strategii firmy Boom Supersonic. Znana z prac nad samolotem pasażerskim Overture (który ma latać z prędkością naddźwiękową), firma ogłosiła projekt „Superpower”.

Turbina w serwerowni

Pomysł jest genialny w swojej prostocie. Boom wziął swój autorski silnik lotniczy „Symphony”, zmodyfikował go i postawił na ziemi jako generator prądu dla centrów danych AI. Dlaczego to ma sens?

Moc: centra danych potrzebują gigantycznych, stabilnych źródeł zasilania, niezależnych od kapryśnej sieci miejskiej. Turbiny gazowe/odrzutowe świetnie się do tego nadają (są kompaktowe i potężne).

Testy: zanim wsadzisz silnik do samolotu z pasażerami, musisz go przetestować przez tysiące godzin. Używając go w serwerowniach, Boom „dociera” technologię w bezpiecznych warunkach, zarabiając na tym pieniądze.

Paliwo dla Overture

CEO firmy, Blake Scholl, nie ukrywa, że to sposób na sfinansowanie marzeń o lataniu. Budowa naddźwiękowego liniowca to kosztowna zabawa. Sprzedaż turbin dla pęczniejącego rynku AI (który płaci każdą cenę za dostępność mocy) zapewni strumień gotówki potrzebny do dokończenia prac nad samolotem Overture. Na loty pasażerskie poczekamy jeszcze około 5 lat. Ale Twoje zapytanie do ChatGPT być może już wkrótce zostanie przetworzone dzięki energii z naddźwiękowej turbiny.

Boom Supersonic zrealizował swój pierwszy lot naddźwiękowy

#AI #boomSupersonic #centraDanych #energetyka #Overture #sztucznaInteligencja #technologiaLotnicza

AI w 2026 – czy technologia nas wspomoże, czy przejmie kontrolę?

Co, jeśli 2026 nie będzie rokiem „AI, które pomaga”, tylko „AI, które zbyt chętnie wszystko przejmuje”? I co, jeśli największe ryzyko nie leży w samych modelach, ale w tym, jak wgryziemy je w świat?

Czytaj dalej:
https://pressmind.org/ai-w-2026-czy-technologia-nas-wspomoze-czy-przejmie-kontrole/

#PressMindLabs #agenciai #bezpieczenstwosoc #centradanych #dezinformacja #robotyka

Polski Goodram rzuca wyzwanie gigantom. Pokazali dysk SSD o pojemności 122 TB, który… lubi pływać

Kiedy myślimy o rekordach w świecie pamięci masowych, zazwyczaj patrzymy w stronę Korei lub USA. Tymczasem polski Wilk Elektronik (właściciel marki Goodram) właśnie wyłożył na stół produkt, który deklasuje konkurencję w bardzo specyficznej i wymagającej niszy.

Mowa o dysku SSD o pojemności niemal 123 TB, zaprojektowanym specjalnie do pracy w zanurzeniu. Informacja, która dość nieśmiało przebija się w mediach, jest istotniejsza, niż może się wydawać. Nie chodzi tylko o absurdalnie wielką pojemność (122,88 TB na jednym nośniku wciąż robi wrażenie), ale o przeznaczenie tego sprzętu.

Wilk… serwerowy

W dobie sztucznej inteligencji centra danych mają gigantyczny problem: temperaturę. Tradycyjne wiatraki przestają wystarczać do chłodzenia szaf rackowych napakowanych układami scalonymi. Przyszłością jest immersion cooling, czyli zanurzanie całej elektroniki w specjalnych cieczach dielektrycznych (nieprzewodzących prądu), produkowanych m.in. przez Shell czy Chevron.

Problem w tym, że nie każdy sprzęt to lubi. Kleje mogą się rozpuszczać, uszczelki puszczać. I tu wchodzi Goodram. Ich nowy dysk w formacie E3.S oraz E3.L został od podstaw zaprojektowany tak, by pracować w bezpośrednim kontakcie z chłodziwem.

Specyfikacja wagi ciężkiej

Polski nośnik to potwór wydajnościowy klasy Enterprise:

  • Pojemność: 122,88 TB.
  • Interfejs: PCIe 5.0 (najnowszy standard).
  • Technologia: pamięci QLC NAND (zapewniające dużą gęstość danych).
  • Prędkość: odczyt sekwencyjny 14,6 GB/s.

Zapis na poziomie 3,2 GB/s może wydawać się niższy, ale w tej klasie dysków (tzw. read-intensive) to standard. Służą one do przechowywania gigantycznych modeli AI czy baz danych, które są bardzo często odczytywane, a rzadziej nadpisywane.

To, że polska firma z Łazisk Górnych jest w stanie zaoferować produkt naprawdę światowej klasy w tak hermetycznej i zaawansowanej kategorii jak chłodzenie cieczą, to powód do dumy. Goodram udowadnia, że nie jest już tylko producentem pendrive’ów z biedronkowego kosza, ale graczem, z którym liczy się wielki biznes.

WD Blue SN5100 NVMe SSD wchodzi do Polski. Sandisk obiecuje wyższą wydajność dla twórców

#centraDanych #goodram #immersionCooling #PCIe50 #polskieTechnologie #SSD122TB #WilkElektronik

Koszty boomu AI zaczynają obciążać centra danych i infrastrukturę

Dynamiczny rozwój sztucznej inteligencji przekracza dziś granice czystego oprogramowania.

W świecie, w którym modele generatywne stają się codziennym narzędziem biznesu, a globalne firmy wydają miliardy na infrastrukturę, koszty operacyjne związane z centrami danych rosną szybciej niż kiedyś sądzono.

Od lat centra danych stanowią podstawę cyfrowej gospodarki. Początkowo służyły głównie do przechowywania i obsługi tradycyjnych aplikacji internetowych. Dziś jednak ich rola diametralnie się zmienia. Sztuczna inteligencja, zwłaszcza duże modele językowe i aplikacje generatywne, wymagają olbrzymiej mocy obliczeniowej i stałego zasilania — zarówno w fazie trenowania, jak i w fazie działania, co przekłada się na dramatyczny wzrost zużycia energii.

Według szacunków branżowych, centra danych już pochłaniają znaczącą część krajowego zapotrzebowania energetycznego w niektórych gospodarkach rozwiniętych. W Stanach Zjednoczonych i Europie liczba nowych inwestycji danych wzrosła w ostatnich latach o kilkadziesiąt procent rocznie, a w modelach prognozowanych na kolejne lata tempo to wciąż utrzymuje się na wysokim poziomie.

To z kolei rodzi kilka kluczowych wyzwań:

  • infrastrukturalne: budowa i utrzymanie ośrodków serwerowych wiąże się z ogromnymi kosztami inwestycyjnymi,
  • energetyczne: centra danych wymagają stabilnych i wydajnych źródeł energii, co w praktyce oznacza presję na sieci elektroenergetyczne i konieczność inwestowania w odnawialne źródła energii,
  • ekonomiczne: rosnące rachunki za energię i chłodzenie stają się istotnym czynnikiem kosztotwórczym dla firm technologicznych.

Eksperci zwracają uwagę, że dziś energia i infrastruktura stają się głównymi ograniczeniami rozwoju AI — podobnie jak kiedyś był to brak szybkich procesorów czy pamięci. W praktyce oznacza to konieczność przemyślenia strategii energetycznych w dużych korporacjach, a także wzrost znaczenia rozwiązań takich jak chłodzenie cieczą, lokalne mikrogridy czy integracja z farmami wiatrowymi i słonecznymi.

„Atomy dla algorytmów”. Administracja Trumpa chce oddać elektrownie jądrowe w ręce AI

To zagadnienie dobrze łączy się z wcześniejszymi analizami publikowanymi w iMagazine, w których wskazywaliśmy, że energia staje się jednym z najważniejszych czynników rozwoju sztucznej inteligencji — od polityki energetycznej USA po przyszłość miksu energetycznego w gospodarce cyfrowej. Okazuje się, że cyfrowa transformacja nie jest już tylko procesem technologicznym, ale także energetycznym i infrastrukturalnym.

W perspektywie średnioterminowej wyzwaniem dla branży będzie znalezienie równowagi między popytem na moc obliczeniową a efektywnym wykorzystaniem zasobów — tam, gdzie technologia i infrastruktura muszą iść w parze, by AI mogła się dalej rozwijać bez nadmiernego obciążania sieci energetycznych i środowiska.

Sztuczna inteligencja na węglowej kroplówce. Przyszłość technologii napędza energia z przeszłości

#AIEnergetyka #AIObciążenia #centraDanych #chłodzenieSerwerów #dataCenters #energiaOdnawialna #kosztyInfrastruktury #news #sztucznaInteligencja

Boom na centra danych a infrastruktura – kto wygra wyścig o zasoby?

Czy AI właśnie podłącza turbo do gospodarki… czy też odcina tlen zwykłym drogom i mostom?

Czytaj dalej:
https://pressmind.org/boom-na-centra-danych-a-infrastruktura-kto-wygra-wyscig-o-zasoby/

#PressMindLabs #bigtech #centradanych #energetyka #infrastrukturapubliczna #niedoborpracownikow

📰 Polecam tekst @didleth dla Okopress:

"Jeden Palantir, by wszystkimi rządzić. Tolkien, CIA i europejska suwerenność

Czy Europa, w tym i Polska, powinna uzależniać się od korporacji powiązanej z amerykańskim wywiadem? Palantir może umożliwić obcym służbom wgląd w intymne szczegóły życia nieświadomych tego faktu Europejczyków"

https://oko.press/jeden-palantir-by-wszystkimi-rzadzic-tolkien-cia-i-europejska-suwerennosc

#Policja #Służby #BigTech #Inwigilacja #CentraDanych #Analizy #Sondaże #Świat #PrawaCzłowieka #Bezpieczeństwo

Jeden Palantir, by wszystkimi rządzić. Tolkien, CIA i europejska suwerenność

Czy Europa, w tym i Polska, powinna uzależniać się od korporacji powiązanej z amerykańskim wywiadem? Palantir może umożliwić obcym służbom wgląd w intymne szczegóły życia nieświadomych tego faktu Europejczyków

OKO.press

Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.

Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.

Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.

Wyścig zbrojeń i braki sprzętowe

Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.

Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.

Własny krzem sposobem na kryzys

Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.

Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.

Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.

#aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu

Anthropic inwestuje miliardy w układy Google TPU. To strategiczny zwrot w wyścigu zbrojeń AI

Anthropic, główny konkurent OpenAI i twórca rodziny modeli Claude, ogłosił gigantyczną rozbudowę swojej infrastruktury.

Firma planuje wdrożyć nawet milion specjalistycznych układów AI Google Cloud TPU, w ramach umowy wartej dziesiątki miliardów dolarów. Ten ruch to jeden z największych jednorazowych zakupów akceleratorów AI w historii i sygnalizuje strategiczne zmiany w tym, jak budowane są systemy AI na masową skalę.

Rozbudowa, która ma dodać ponad gigawat mocy obliczeniowej w 2026 roku, jest bezpośrednią odpowiedzią na lawinowy wzrost zapotrzebowania na usługi Anthropic. Firma obsługuje już ponad 300 000 klientów biznesowych, a liczba dużych kontraktów (o wartości ponad 100 000 USD rocznie) wzrosła siedmiokrotnie w ciągu ostatniego roku. Pokazuje to, że wdrażanie Claude w korporacjach przeszło z fazy eksperymentów do etapu produkcyjnego, gdzie niezawodność, koszt i wydajność infrastruktury nie podlegają negocjacjom.

Strategia wielu platform

Co najciekawsze, wielomiliardowa umowa z Google nie oznacza zerwania dotychczasowych sojuszy. Anthropic wyraźnie podkreśla, że prowadzi strategię „zdywersyfikowanych obliczeń”. Firma działa jednocześnie na trzech różnych platformach sprzętowych: układach TPU od Google, procesorach Trainium od Amazona oraz dominujących na rynku kartach GPU od Nvidii. Dyrektor finansowy Anthropic, Krishna Rao, potwierdził, że Amazon (AWS) pozostaje ich głównym partnerem chmurowym i szkoleniowym.

To pragmatyczne podejście pokazuje, że w świecie AI nie ma jednego uniwersalnego rozwiązania. Inne zasoby obliczeniowe są optymalne do trenowania gigantycznych modeli od zera, inne do ich późniejszego dostrajania (fine-tuning), a jeszcze inne do masowego i taniego serwowania odpowiedzi (inferencji). Dla liderów IT w korporacjach to jasny sygnał: budowanie długoterminowej strategii AI w oparciu o jednego dostawcę (vendor lock-in) staje się coraz bardziej ryzykowne.

Ekonomia skali i bezpieczeństwo

Według Google, Anthropic zdecydował się na tak dużą inwestycję w układy TPU ze względu na ich „wysoki stosunek ceny do wydajności”. Układy TPU (Tensor Processing Units), stworzone specjalnie do obliczeń sieci neuronowych, często oferują przewagę w przepustowości i efektywności energetycznej nad kartami GPU ogólnego przeznaczenia. Wzmianka o „gigawacie mocy” nie jest przypadkowa – przy tej skali, zużycie energii i koszty chłodzenia stają się równie krytyczne, jak sama cena chipów.

Anthropic mocno zaznacza również inny cel inwestycji. Tak ogromna moc obliczeniowa ma być przeznaczona na „dokładniejsze testowanie, badania nad bezpieczeństwem i wyrównaniem (alignment) oraz odpowiedzialne wdrażanie” modeli. W branży, w której Anthropic pozycjonuje się jako lider odpowiedzialnej AI, jest to kluczowa deklaracja, mająca budować zaufanie klientów z sektorów regulowanych, jak finanse czy opieka zdrowotna.

To posunięcie to kolejny etap wyścigu zbrojeń w infrastrukturze AI, w którym Anthropic ściga się z OpenAI (wspieranym przez Microsoft) i Metą. Zabezpieczając tak duże moce obliczeniowe u różnych dostawców, firma nie tylko zapewnia sobie ciągłość działania, ale także wysyła rynkowi sygnał, że era dominacji jednej architektury chipów AI może powoli dobiegać końca.

Anthropic uczy AI asertywności. Claude może teraz zakończyć rozmowę z użytkownikiem

#AI #AmazonAWS #Anthropic #centraDanych #Claude #dużeModeleJęzykowe #GoogleCloud #infrastrukturaAI #LLM #news #nvidia #sztucznaInteligencja #TPU