Nemotron-Cascade 2: Post-Training LLMs with Cascade RL
NVIDIA가 공개한 Nemotron-Cascade 2는 30B 파라미터 규모의 MoE 모델로, 3B 활성 파라미터만 사용하면서도 2025년 국제수학올림피아드(IMO)와 국제정보올림피아드(IOI)에서 금메달 수준의 성능을 달성했다. 이 모델은 Cascade RL과 다중 도메인 온-폴리시 증류 기법을 도입해 수학, 코드 추론, 에이전트 능력 등 다양한 영역에서 최첨단 성능을 보이며, Nemotron-Nano-V3 기반에서 크게 향상되었다. 학습 데이터와 모델 체크포인트를 오픈소스로 공개해 AI 연구자와 개발자들이 직접 활용할 수 있다.
https://research.nvidia.com/labs/nemotron/nemotron-cascade-2/
Nemotron-Cascade 2: Post-Training LLMs with Cascade RL and Multi-Domain On-Policy Distillation
We introduce Nemotron-Cascade 2, an open 30B MoE model with 3B activated parameters that delivers best-in-class reasoning and strong agentic capabilities. It is the second open-weight LLM, after DeepSeek-V3.2-Speciale-671B-A37B, to achieve Gold Medal-level 🏅 performance in 2025 International Mathematical Olympiad (IMO), the International Olympiad in Informatics (IOI), and the ICPC World Finals.



