#OpenAI launched #GPT54, a new #foundationmodel optimised for #professionalwork. The model comes in three versions: standard, reasoning (GPT-5.4 Thinking), and high-performance (GPT-5.4 Pro). It boasts improved benchmark results, token efficiency, and error reduction compared to its predecessor. https://techcrunch.com/2026/03/05/openai-launches-gpt-5-4-with-pro-and-thinking-versions/?eicker.news #tech #media #news
OpenAI launches GPT-5.4 with Pro and Thinking versions | TechCrunch

GPT-5.4 is billed as "our most capable and efficient frontier model for professional work."

TechCrunch

StepFun (@StepFun_ai)

기본 모델과 코드 공개를 알리는 트윗입니다. 'Step 3.5 Flash Base'라는 사전학습된 foundation 모델과, 코드 및 에이전트를 포함한 'Step 3.5 Flash Base-Midtrain'을 공개했으며, 오픈소스 코드 'SteptronOSS'를 배포했다고 밝힘. SFT(지도적 파인튜닝) 데이터는 추후 공개 예정이라고 안내하며 'maximum sincerity, minimum barriers'라는 개방성 원칙을 강조함.

https://x.com/StepFun_ai/status/2028551435290554450

#stepronoss #foundationmodel #sft #opensource

StepFun (@StepFun_ai) on X

"can we get the base model?" sure. here's two. "can we get the code?" sure. here's SteptronOSS. "what about the SFT data?" coming soon. maximum sincerity, minimum barriers. - Step 3.5 Flash Base — pretrained foundation - Step 3.5 Flash Base-Midtrain — code, agents &

X (formerly Twitter)

fly51fly (@fly51fly)

MIT, Allen Institute for AI, Qube Research & Technologies 연구진이 'Reverso'라는 시간 시계열용 파운데이션 모델을 공개했다. Reverso는 제로샷 환경에서도 효율적인 예측을 수행할 수 있는 모델로, 고성능의 시계열 분석 및 경제·기상 데이터 예측 등에 활용될 가능성이 있다. 효율적 예측을 강조한 신개념 시계열 모델 연구로 주목받고 있다.

https://x.com/fly51fly/status/2025692807592296859

#timeseries #foundationmodel #forecasting #ai #research

fly51fly (@fly51fly) on X

[LG] Reverso: Efficient Time Series Foundation Models for Zero-shot Forecasting X Fu, Y Li, G Papaioannou, Y Kim [MIT & Allen Institute for AI & Qube Research & Technologies] (2026) https://t.co/I1S981s6nK

X (formerly Twitter)

Howard (@0xhoward)

중국의 AI 스타트업 Moonshot AI(Kimi)가 연속 투자 라운드를 통해 총 12억 달러 이상을 유치하며, 중국에서 가장 빠른 데카콘(기업가치 100억 달러 이상)으로 부상했습니다. 최근 20일 동안의 수익이 2025년 전체 수익을 초과했으며, 이는 기초 모델(Foundation Model) 분야에서 역대 최대 규모의 자금 조달로 평가됩니다.

https://x.com/0xhoward/status/2025856820318023916

#funding #llm #startup #china #foundationmodel

Howard (@0xhoward) on X

Revenue in the Last 20 Days Tops All of 2025: Moonshot AI Becomes China’s Fastest Decacorn @Kimi_Moonshot After pulling in more than $1.2B across back-to-back rounds, Moonshot AI (Kimi)—a leading #LLM unicorn—has logged the largest funding haul in the foundation model sector

X (formerly Twitter)

Lukas Ziegler (@lukas_m_ziegler)

NVIDIA Robotics, UC Berkeley, HKUST, UT Austin 공동 연구진이 44,000시간의 인간 비디오 데이터로 훈련된 로봇용 기초 세계 모델 'DreamDojo'를 공개했다. 이는 현재까지 가장 큰 규모의 비디오 학습 데이터셋 기반 세계 모델로, 로봇의 시각적·물리적 이해 능력을 획기적으로 향상시킬 잠재력을 지닌다.

https://x.com/lukas_m_ziegler/status/2025128040754254138

#nvidia #robotics #worldmodel #foundationmodel #ai

Lukas Ziegler (@lukas_m_ziegler) on X

World model trained on 44,000 hours of human videos! 🌍 @NVIDIARobotics, UC Berkeley, HKUST, and UT Austin just released DreamDojo, a foundation world model for robots trained on the largest video dataset to date for world model pretraining. The closer it gets to GTC, the more

X (formerly Twitter)

Lukas Ziegler (@lukas_m_ziegler)

NVIDIA Robotics가 인간형 로봇 제어용 기반 모델 ‘SONIC(Supersizing Motion Tracking for Natural Humanoid Whole-Body Control)’을 공개했다. 이 모델은 1억 프레임(약 700시간)의 모션 데이터를 바탕으로 9,000 GPU 시간을 사용해 훈련되었으며, 인간 형태 로봇의 전신 제어 성능을 크게 개선할 것으로 기대된다.

https://x.com/lukas_m_ziegler/status/2024815116399657231

#nvidia #robotics #foundationmodel #humanoid #motiontracking

Lukas Ziegler (@lukas_m_ziegler) on X

Crawling robots are here! 🤯 @NVIDIARobotics just released SONIC (Supersizing Motion Tracking for Natural Humanoid Whole-Body Control), a foundation model for humanoid control trained on 100M+ frames of motion data (700 hours) using 9,000 GPU hours. Instead of manual reward

X (formerly Twitter)

𝗿𝗮𝗺𝗮𝗸𝗿𝘂𝘀𝗵𝗻𝗮— 𝗲/𝗮𝗰𝗰 (@techwith_ram)

Google이 시계열 파운데이션 모델 'TimesFM'을 공개했다는 발표입니다. 약 1000억 포인트(100 billion)의 시계열 코퍼스로 사전학습되어 다양한 도메인의 벤치마크에서 인상적인 성능을 보인다고 하며, TimesFM GitHub 페이지(코드/리포지토리)도 함께 공개된 것으로 보입니다.

https://x.com/techwith_ram/status/2024088162105266649

#google #timesfm #timeseries #foundationmodel

𝗿𝗮𝗺𝗮𝗸𝗿𝘂𝘀𝗵𝗻𝗮— 𝗲/𝗮𝗰𝗰 (@techwith_ram) on X

𝗔 𝗧𝗶𝗺𝗲 𝗦𝗲𝗿𝗶𝗲𝘀 𝗙𝗼𝘂𝗻𝗱𝗮𝘁𝗶𝗼𝗻 𝗠𝗼𝗱𝗲𝗹 𝗕𝘆 𝗚𝗼𝗼𝗴𝗹𝗲 This has been pre-trained on a time series corpus of 100 billion data points, & shows impressive performance on various benchmarks from diverse domains. 𝗧𝗶𝗺𝗲𝘀𝗙𝗠 𝗚𝗶𝘁𝗵𝘂𝗯 𝗽𝗮𝗴𝗲:

X (formerly Twitter)

Elon Musk (@elonmusk)

트윗은 'V8 small foundation model'이라는 모델을 지칭하며 해당 모델의 크기가 5000억(500B) 파라미터임을 알립니다. 출시 맥락이나 추가 세부정보는 없지만 모델 이름과 파라미터 수가 핵심 정보입니다.

https://x.com/elonmusk/status/2023840935285760142

#v8 #foundationmodel #500b #llm

Elon Musk (@elonmusk) on X

@nextbigfuture This is just our V8 small foundation model, so 500B params

X (formerly Twitter)

Jim Fan (@DrJimFan)

새 이정표: 세계 모델(world model) 백본으로 로봇 파운데이션 모델을 학습시켜 제로샷 오픈월드 프롬프팅(새로운 동사·명사·환경에 대한 즉시 대응) 능력을 부여했다고 발표. 세계 모델이 픽셀로 올바른 미래를 '꿈'꾸면 로봇이 모터로 잘 실행할 수 있다는 개념 제시.

https://x.com/DrJimFan/status/2019112603637920237

#robotics #foundationmodel #worldmodel #zeroshot #robotlearning

X

X (formerly Twitter)

StepFun (@StepFun_ai)

오픈소스 파운데이션 모델 'Step 3.5 Flash' 출시 예고: 'Fast Enough to Think. Reliable Enough to Act'를 표방하며, 희소 Mixture of Experts(MoE) 아키텍처를 활용해 총 196B 파라미터 중 활성화는 11B로 처리 효율을 높인다고 설명. 공개형으로는 가장 능력 있는 모델이라고 주장하는 발표성 트윗.

https://x.com/StepFun_ai/status/2018370831538180167

#opensource #foundationmodel #moe #efficiency #ai

StepFun (@StepFun_ai) on X

⚡️ Step 3.5 Flash is coming: Fast Enough to Think. Reliable Enough to Act! We’re dropping our most capable open-source foundation model yet. Frontier reasoning meets extreme efficiency. It leverages a sparse Mixture of Experts (MoE) architecture, 196B total → 11B active. Key

X (formerly Twitter)