Andrew Feldman (@andrewdfeldman)
GTC์์ ์ ์จ ํฉ์ด NVL 72๊ฐ ์๋น์ค ์๊ตฌ(์: 400โ1000 TPS)์์ ๋์ญํญ ๋ถ์กฑ์ผ๋ก ์ฑ๋ฅ ํ๊ณ์ ๋๋ฌํ๋ค๊ณ ์ธ๊ธํ์ต๋๋ค. ์์ฑ์๋ ์ด ๋ฐ์ธ์ ์ธ์ฉํ๋ฉฐ NVL 72์ ๋์ญํญ ์ ์ฝ์ ์ง์ ํ๊ณ @cerebras๋ฅผ ์ธ๊ธํด ํ๋์จ์ด ์์ค์ ๋ณ๋ชฉ๊ณผ ๋น๊ต ๋ ผ์์ ํ๊ธฐํฉ๋๋ค.

Today at GTC Jensen said โYou wanted to have services that deliver not just 400 TPS, but 1000 T/s. All of a sudden the NVL 72 runs out of steam-we just donโt have enough bandwidth.โ Thatโs right. It runs out of bandwidth. @cerebras we have been saying all along that if you buy
https://winbuzzer.com/2026/03/16/aws-cerebras-wse3-deal-amazon-bedrock-ai-inference-xcxwbn/
AWS Inks Cerebras Deal for 5X Faster Cloud AI Inference Based With Its Trainium AI Chips
#AI #AIChips #AIInfrastructure #Amazon #AWS #BigTech #CloudComputing #DataCenters #Cerebras #AmazonBedrock #AIInference #Semiconductors #Chip #Trainium #WSE3 #CS3
Amazon ะฑัะดะตั ะธัะฟะพะปัะทะพะฒะฐัั ะณะธะณะฐะฝััะบะธะต ัะธะฟั Cerebras ะดะปั ัะฐะฑะพัั ะผะพะดะตะปะตะน ะธัะบััััะฒะตะฝะฝะพะณะพ ะธะฝัะตะปะปะตะบัะฐ. https://webno.ru/novosti-i-stati/amazon-budet-ispolzovat-gigantskie-chipy-cerebras-dlya-raboty-modelej-iskusstvennogo-intellekta/
SRAM. Static RAM. The stuff used for CPU caches, including AMD's 3D chips.
There have been mumbles of CPU prices spiking like DRAM....this may be part of why.
"Companies like Cerebras, Groq, and d-Matrix are designing AI inference chips that use massive amounts of on-chip SRAM instead of relying on external DRAM (HBM), which significantly reduces latency and power consumption."
nVidia bought Groq. Amazon and Cerebras just signed a deal. Cerebrasโ WSE-3 chip includes 900,000 cores and 44 gigabytes of on-chip SRAM.
Wait for it...............
#ai #dram #memory #sram #datacenters #gpu #cerebras #groq #amazon #nvidia
Cerebras (@cerebras)
์ฝ๋ฉ ์ํฌํ๋ก์ฐ๊ฐ ๋๋ฆฐ ์ถ๋ก ์ ์ ์ ๋ก ์ค๊ณ๋์ด ์์์ผ๋, OpenAI์ 'Codex Spark'๊ฐ Cerebras ํ๋์จ์ด๋ก ๊ตฌ๋๋๋ฉฐ ์ํฉ์ ๋ฐ๊ฟจ๋ค๋ ์ฃผ์ฅ์ ๋๋ค. ์ด๋น 1,200 ํ ํฐ์ด๋ผ๋ ๋์ ์ฒ๋ฆฌ๋์ ํ์ฉํด ์ค๋ฌด ์ฝ๋ ์์ ์์ ์ฑ๋ฅ์ ๋์ด๋ด๋ ๋ฐฉ๋ฒ์ ๊ณต์ ํ๋ค๊ณ ํฉ๋๋ค.
Sarah Chieng (@SarahChieng)
์์ฑ์๋ Codex์ Claude Code์ ์์ ์ ํธ์ํฐ ๊ณ์ ์ ์ฒด ์ ๊ทผ๊ถ์ ์ค ๋น๊ตํ๋ค. ํธ์์ ๋ฐ๋ฅด๋ฉด 'Codex spark'(Cerebras ๊ธฐ๋ฐ)๋ Claude Code๋ณด๋ค GTM ์์๋ฆฌ์น ์ํฌํ๋ก๋ฅผ 3๋ฐฐ ๋น ๋ฅด๊ฒ ์๋ฃํ๊ณ ํด ํธ์ถ ํ์๋ ํจ์ฌ ์ ์๋ค๊ณ ์ฃผ์ฅํ์ฌ, ์ค๋ฌด ์ฑ๋ฅยทํจ์จ์ฑ ๋น๊ต ์ฌ๋ก๋ฅผ ์ ์ํ๋ค.
Tommy Nguyen (@tuannvm)
์ ์ค๊ณ๋ AI ์ํฌํ๋ก๋ฅผ ์ต๋ํ ํ์ฉํ๋ ๊ฒ์ ๋์ด ํ๊ฐํ๋ฉฐ, @cerebras(๋ฆฌ๋์ญ/์ ํ)๊ฐ ์๋ก์ด ์งํ์ ์ด์๋ค๊ณ ์นญ์ฐฌโCerebras์ ํ๋์จ์ดยท์์คํ ์ด AI ์ํฌํ๋ก์ ์ฑ๋ฅยทํจ์จ ๊ฐ์ ์ ๊ธฐ์ฌํ๊ณ ์์์ ์์ฌํฉ๋๋ค.
OpenAI has launched GPT-5.3-Codex-Spark - its first production #AI model deployed on #Cerebras wafer-scale chips instead of traditional Nvidia GPUs.
The resultโ
โข Higher throughput
โข Lower latency
โข A real-time, interactive coding experience
๐ Read more on #InfoQ โจ https://bit.ly/3MKZQ17