yahoo news | AI funding uncertainties are shaking up memory producers. Will we finally be...

Since June 2025, RAM prices have surged to unprecedented levels, a trend amplified after the GPU shortage of 2020 and lingering COVID‑related supply‑chain disruptions. The latest catalyst has been the rapid expansion of AI workloads, which gobbled up large swathes of memory inventory. The situation worsened in September when OpenAI’s funding pipeline stalled after Disney pulled back from its Sora project, casting doubt on whether the company would continue purchasing the massive volumes of undiced wafers it had previously earmarked. Competing AI firms such as Anthropic are gaining ground, while Google’s advances in AI efficiency promise to cut memory demand, together creating a sudden reduction in the appetite for new RAM.

The ripple effect of these funding uncertainties has been felt across the major memory manufacturers. Micron, SK Hynix, and even Samsung—though not a primary RAM producer—saw their share prices tumble as investors reacted to the news of shrinking AI orders. Concurrently, market data show DDR5 kit prices falling for the first time in eight months in Germany, a 20 % dip in certain U.S. segments, and a $14‑per‑module drop in China within a single day. These price corrections suggest that the extraordinary inflation that once quadrupled RAM costs may finally be abating, giving consumers a glimpse of more affordable memory.

If the downtrend continues, the broader tech and gaming ecosystems could benefit. Lower RAM prices would ease the financial pressure on upcoming consoles such as the PlayStation 6 and the next‑generation Xbox, helping them retain mid‑range pricing targets. Reduced memory costs would also translate into cheaper SSDs and other storage solutions, potentially reviving delayed projects like the Steam Machine. While external factors like rising oil prices and geopolitical tensions still pose risks to manufacturing and shipping costs, the emerging decline in RAM pricing offers a hopeful outlook for both gamers and the wider hardware market.

Read more: https://www.destructoid.com/ai-funding-uncertainties-are-shaking-up-memory-producers-will-we-finally-be-able-to-afford-ram-again/

#openai #sora #anthropic #google #micron

You can easily do without #hobonichitecho #hobonichi #ink #micron but not without #doodle #micron #northcarolina #wildflower.
Micron May Be Planning On Making HBM-Style Stacked GDDR Memory

Micron is reportedly working on a new HBM-style stacked GDDR memory product, with plans to have a working product by this year.

Lowyat Media Group
OpenAI gera crise na Micron e Samsung após recuo em acordo de memória

O mercado de componentes tecnológicos enfrenta um abalo repentino. A OpenAI, liderada por Sam Altman, gerou uma crise entre os seus principais parceiros de hard

TugaTech

Micronが「GDDR積層化」製品を計画中:HBM一強時代に風穴を開ける新たなAIメモリ戦略

生成AIブームの牽引役として、半導体業界では高帯域幅メモリ(HBM)を巡る熾烈な開発・供給競争が日夜繰り広げられてきた。最先端のAIアクセラレータの性能は、現在、プロセッサそのものの演算能力ではなく、隣接するHBMがどれほどの速度でデータを供給できるかに完全に依存している。しかし現在、このHBMへの過度な依存が引き起こす構造的な限界と慢性的な供給不足を打破する可能性を秘めた、全く新しいアプローチが半導体業界に浮上している。 韓国のIT・ビジネス専門メディアであるETNewsが2026年3月30日に報じた最新のレポートによると、米メモリ大手Micron […]

https://xenospectrum.com/micron-stacked-gddr-ai-memory-strategy/

Micron Explores Vertically Stacked GDDR Memory as HBM Alternative

Micron is reportedly developing a new memory architecture based on vertically stacked GDDR, targeting a space between traditional GDDR and high-bandwidth memory (HBM).

Micron Explores Vertically Stacked GDDR Memory as HBM Alternative

Micron is reportedly developing a new memory architecture based on vertically stacked GDDR, targeting a space between traditional GDDR and high-bandwidth memory (HBM).

www.guru3d.com

Setki gigabajtów w każdym aucie. Autonomiczna motoryzacja może wyczyścić magazyny z pamięci RAM

Wyobraź sobie, że kupujesz nowy samochód, a w jego specyfikacji technicznej, tuż obok mocy silnika i pojemności bagażnika, widnieje informacja o 300 GB wbudowanej pamięci operacyjnej.

Brzmi to jak wizja z powieści science fiction, ale według szefa firmy Micron to nasza nieunikniona przyszłość. Pojazdy stają się „superkomputerami na kołach”, a to może oznaczać potężną presję na łańcuchy dostaw.

Poruszające się obecnie po ulicach auta, nawet te wyposażone w zaawansowane systemy wspomagania kierowcy (na poziomie L2, takie jak chociażby Autopilot od Tesli), potrzebują zazwyczaj około 16 GB pamięci RAM. To wartość, do której przyzwyczailiśmy się w naszych redakcyjnych laptopach. Jednak potencjalne przejście na poziom L4 – gdzie pojazd porusza się samodzielnie i właściwie nie wymaga ingerencji człowieka – całkowicie zmienia reguły gry na rynku technologicznym.

Apetyt na pamięć rośnie w zawrotnym tempie

Sanjay Mehrotra, dyrektor generalny firmy Micron, prognozuje, że nadchodzące pojazdy będą wymagały co najmniej 300 GB szybkiej pamięci operacyjnej. Autonomiczna jazda oznacza konieczność błyskawicznego przetwarzania niewyobrażalnych ilości informacji z wielu kamer, radarów i czujników przez pokładowe modele sztucznej inteligencji. W tym środowisku każda milisekunda ma ogromne znaczenie dla bezpieczeństwa pasażerów, dlatego systemy te nie mogą polegać na powolnych dyskach – muszą trzymać obszerne modele AI w szybkiej pamięci podręcznej.

Oczywiście warto wziąć poprawkę na to, że są to przewidywania szefa firmy, której głównym celem jest sprzedaż układów scalonych, a nie zatwierdzony standard całej branży motoryzacyjnej. Jeśli jednak ten technologiczny skok faktycznie nastąpi, może mieć zauważalny wpływ na fanów innych gadżetów. Micron już teraz notuje niewiarygodne wręcz zyski (przychody na poziomie prawie 24 miliardów dolarów w zaledwie jednym kwartale, co oznacza wzrost o 200 procent) dzięki dostarczaniu układów dla wielkich centrów danych.

Poważne wyzwanie dla użytkowników elektroniki

Jeśli do tego rynkowego równania dodamy wkrótce miliony samochodów wymagających po 300 GB pamięci każdy, rynek podzespołów komputerowych mogą czekać kolejne napięcia. Gdy globalna motoryzacja zacznie na poważnie konkurować z rynkiem PC i smartfonów o wafle krzemowe, może się to przełożyć na wydłużone czasy dostaw oraz wyższe ceny elektroniki użytkowej na sklepowych półkach.

Giganci z branży półprzewodników zdają sobie sprawę z nadciągających wyzwań. Micron zapowiada zwiększenie produkcji oraz budowę nowych, ogromnych fabryk w Stanach Zjednoczonych, Japonii i Singapurze. Zanim jednak te innowacyjne zakłady zaczną działać z pełną mocą, minie co najmniej kilka lat. Warto jednak pamiętać, że branża technologiczna wielokrotnie udowadniała, że potrafi szybko i skutecznie skalować produkcję, gdy pojawia się nowy, lukratywny popyt.

Wiele wskazuje na to, że rozwój sztucznej inteligencji ukształtuje nie tylko to, jak korzystamy ze sprzętu, ale wpłynie na cały globalny łańcuch dostaw. Przyszłość autonomicznej jazdy zapowiada się fascynująco, choć dla osób planujących złożenie mocnego komputera, nadchodzące lata mogą wymagać nieco większej cierpliwości.

Autonomiczna rewolucja. Uber i Pony.ai ruszają z robotaksówkami w Europie

#autonomiczneSamochody #łańcuchDostawElektroniki #Micron #pamięćRAM #poziomL4 #rynekPC #systemyAutonomiczne #sztucznaInteligencjaWMotoryzacji #układyScalone
Schnelle Kapazitätserhöhung: Nach Zukäufen in Taiwan sucht Micron nun bei JDI in Japan

Micron hat in den letzten Jahren ausrangierte Fabriken übernommen und macht sie für die Speicherproduktion fit. Nun ist JDI an der Reihe.

ComputerBase

💾 Abverkauf bei Halbleitern

Der Philadelphia Semiconductor Index -5 % 📉

🔻 AMD -7,5 % (Gewinnmitnahmen)
⚠️ Micron Technology unter Druck (Lieferketten + Tech-Sorgen)

🌪️ Starke Put-Volumina → Institutionelle sichern sich ab

#AMD #Micron #Halbleiter #Optionshandel

自駕車, 機械人引發記憶體需求 美光預期 L4 自駕車 容量由 16GB 增至 300GB - unwire.hk 香港

Micron 執行長 Sanjay Mehrotra 近日發表最新市場預測,指 L4 級別自動駕駛車輛與人形機械人普及將帶動記憶體需求大幅增長。未來每部自動駕駛車輛預計需要配備超過 300GB 記憶體容量,遠超目前 L2 級別駕駛輔助系統所需 16GB 容量,龐大技術需求將為車用記憶體市場創造巨大增長空間。

香港 unwire.hk 玩生活.樂科技