CHOI (@arrakis_ai)
StepFun이 오픈소스 모델 'Step 3.5 Flash'를 발표했습니다. Sparse MoE 아키텍처(총 196B, 활성화 11B)를 채용해 추론과 에이전트 사용에 최적화되었고, 최대 256K 토큰 컨텍스트를 지원합니다. 처리량은 초당 100–300토큰 범위이며 벤치마크 차트에서 빠른 추론 성능을 강조하고 있습니다.
https://x.com/arrakis_ai/status/2018183619374993518
#opensource #stepfun #step3.5 #sparsemoe #longcontext

CHOI (@arrakis_ai) on X
February is already starting crazy.
StepFun just dropped Step 3.5 Flash and it’s genuinely a serious open-source model.
Sparse MoE (196B total / 11B activated) + built for fast reasoning & agents.
256K context, 100-300 tok/s throughput, and the benchmark chart looks
X (formerly Twitter)Cộng đồng AI đang xôn xao về kiến trúc của Gemini 3! Liệu Google có kết hợp MoR (Recursion) và Titans - những công nghệ họ từng giới thiệu - vào mô hình sparse MoE transformers-based này không? Bạn nghĩ sao về sự pha trộn phức tạp này?
#Gemini3 #GoogleAI #LLM #AIarchitecture #MoR #Titans #SparseMoE #Transformers #KiếnTrúcAI #MôHìnhNgônNgữLớn #TríTuệNhânTạo
https://www.reddit.com/r/LocalLLaMA/comments/1p0yq1i/do_you_think_gemini_3_uses_mor_or_titans/