Q*Satoshi (@AiXsatoshi)

LongCat-Flash-Thinking 모델(560B)은 전체 중 단 27B(4.8%)만 활성화되고, 512개의 전문가(experts) 중 12개만 활성화되는 매우 낮은 활성화 비율을 보고한 내용입니다. 비교로 DeepSeek(671B)은 37B(5.5%) 활성화로, 희소 활성화(sparse activation)/Mixture-of-Experts 특성이 강조된 관찰입니다.

https://x.com/AiXsatoshi/status/2013068443176546807

#longcat #moe #sparseactivation #deepseek #airesearch

Q*Satoshi⏩ (@AiXsatoshi) on X

LongCat-Flash-Thinking 2601 560Bでわずか27B(4.8%)のみ活性化。 512個のエキスパートのうち、12個のみ活性化する。この活性化比率はすごい ちなみにDeepSeekは、Total 671Bの活性化は37Bで、5.5%

X (formerly Twitter)

Q*Satoshi (@AiXsatoshi)

새로운 560B 파라미터 MoE 모델 'LongCat-Flash-Thinking 2601' 출시 소식입니다. 실세계 에이전트 과제에서 탁월한 성능을 보이며 AIME-25에서 99.6%를 달성했고, 노이즈 환경에서도 높은 정확도를 유지합니다. 또한 'Heavy Thinking Mode'로 깊은 추론을 수행할 수 있다고 발표되었습니다.

https://x.com/AiXsatoshi/status/2012776698052591911

#longcat #moe #llm #release

Q*Satoshi⏩ (@AiXsatoshi) on X

新しい560BパラメータのMoEモデル! LongCat-Flash-Thinking 2601 リリース 新しい思考ができるフラッグシップクラスはありがたい 実世界のエージェントタスクで圧倒的な性能 - AIME-25で99.6%達成 - ノイズ環境下でも高精度 - Heavy Thinking Modeで深い推論を実現

X (formerly Twitter)
One Open-source Project Daily

Looooooooooooooooooooooooooooooooooooooooooooooong cat

https://github.com/mattn/longcat

#1ospd #opensource #longcat
GitHub - mattn/longcat: Looooooooooooooooooooooooooooooooooooooooooooooong cat

Looooooooooooooooooooooooooooooooooooooooooooooong cat - mattn/longcat

GitHub
#cat #kot #longcat Long long long caaaat.
SPLOOT #longcat

I'm "I remember #FuckFBIfriday!" years old.

#Caturday

l ö n g

YouTube