https://twitter.com/fynnso/status/2034706304875602030 #innovation #KimiK2.5 #HackerNews #ngated
Cursor Composer 2 is just Kimi K2.5 with RL
https://twitter.com/fynnso/status/2034706304875602030
#HackerNews #CursorComposer2 #KimiK2.5 #RL #TechNews #HackerNews
Fili (@filiksyos)
Openclaw ํ: ๊ธฐ๋ณธ ๋ชจ๋ธ๋ก 'kimi k2.5'๋ฅผ ์ฐ๋ผ๋ ๊ถ์ฅ์ ๋๋ค. ํธ์์ kimi k2.5๊ฐ Sonnet ์์ค์ ์ง๋ฅ์ ๋ณด์ฌ์ฃผ๋ฉด์ ๋น์ฉ์ ์ฝ 7.5๋ฐฐ ์ ๋ ดํ๊ณ Openclaw์์ ๊ฐ์ฅ ๋ง์ด ์ฐ์ด๋ ๋ชจ๋ธ์ด๋ผ ์๊ฐํ๋ฉฐ, ์ปจํ ์คํธ๊ฐ ๊ธธ์ด์ง๋ฉด ๋๋ ค์ง๊ณ ์ฑ๋ฅ์ด ๋จ์ด์ง๋ฏ๋ก /compact ๋ช ๋ น์ ์ฌ์ฉํ๋ผ๊ณ ๊ถํฉ๋๋ค.
Ivan Fioravanti แฏ (@ivanfioravanti)
1์กฐ(1T) ํ๋ผ๋ฏธํฐ๊ธ ๋ชจ๋ธ(์: Kimi K2.5)์ ๋ก์ปฌ์์ ์คํํ๋ ์ฌ๋ก ๋ณด๊ณ : ์์ฑ์๋ ๋ ๋์ Mac Studio M3 Ultra(512GB)์์ Apple MLX๋ฅผ ์ฌ์ฉํด ์ฝ 630GB RAM์ผ๋ก ๋ชจ๋ธ์ ๊ตฌ๋ํด ์ด๋น 20ํ ํฐ์ ๋ฌ์ฑํ๊ณ , @exolabs์์ ์คํํ์ผ๋ฉฐ @opencode๋ฅผ ํ์ฉํด ์๋ ํ๋ ์ด ๊ฐ๋ฅํ ์ค๋ค์ดํฌ ๊ฒ์์ ์์ฑํ๋ ์์ฐ์ ์ ๋ก๋ํ์ต๋๋ค. ๋ก์ปฌ LLM ์คํ๊ณผ ์ค์ฌ์ฉ ๋ฐ๋ชจ๋ฅผ ๋ณด์ฌ์ฃผ๋ ๊ธฐ์ ์ ์ฑ๊ณผ์ ๋๋ค.

Can we run locally a 1T parameters like Kimi K2.5? ๐ Yes we can! Here it is: - running at 20 toks/s on @exolabs with Apple MLX on my two Mac Studio M3 Ultra 512GB using ~630GB RAM - @opencode used to create a snake game with autoplay - You can see model creating the game and
Islem Maboud (@Ipenywis)
Kimi_Moonshot์ 'kimi k2.5'๋ฅผ ์ ํ ํธ์คํ ๋ชจ๋ธ์ผ๋ก ์ ๊ทน ์ถ์ฒํ๋ ํ๊ธฐ. ์ฌ์ฉ์๊ฐ ์ค๋ ๊ธฐ๊ฐ ์ฌ์ฉํด ๋ณธ ๊ฒฐ๊ณผ ์์ ์ ์ผ๋ก ์๋ํ๋ค๊ณ ํ๊ฐํ๋ฉฐ, ์ด ๋ชจ๋ธ ๋๋ฌธ์ Anthropic ๊ตฌ๋ ์ ์ทจ์ํ ๊ทผ๊ฑฐ๋ฅผ ์ฐพ์๋ค๊ณ ๋ฐํ.
ใใชใผใปใใฆ (@EikaChiu)
์น ๊ฐ๋ฐ ์ฝ๋ฉ ์์ ์์ ์ค๊ตญ์ฐ OSS ๋ชจ๋ธ์ด Top10์ 3๊ฐ ์ง์ ํ๋ค๋ ์์์ ๋๋ค. ์์๋ 6์: glm-5(@Zai_org), 7์: minimax-m2.5(@MiniMax_AI), 9์: kimi-k2.5-thinking(@Kimi_Moonshot). ํต๊ณ ์ถ์ฒ๋ @arena์ด๋ฉฐ ์ค๊ตญ ์คํ์์ค ๋ชจ๋ธ์ ์ฝ์ง์ ๊ฐ์กฐํฉ๋๋ค.

Web้็บใฎใณใผใใฃใณใฐใฟในใฏใงใไธญๅฝใฎOSSใขใใซใใชใใจ3ใคใใใใ10ใซใฉใณใฏใคใณ๏ผไปใฎๅขใใๆใใพใใญใ 6ไฝ: glm-5 (@Zai_org) 7ไฝ: minimax-m2.5 (@MiniMax_AI) 9ไฝ: kimi-k2.5-thinking (@Kimi_Moonshot) Stats by @arena
Alex Finn (@AlexFinn)
๊ณํ ์ค์ธ ๋ก์ปฌ AI ๊ตฌ์ฑ ๋ ธํธ: Exolabs๋ฅผ ํตํด ๋ ๋์ Mac Studio์์ Kimi K2.5๋ฅผ ๊ตฌ๋ํ๊ณ , ๋์์ MiniMax 2.5๋ ์ด์ํฉ๋๋ค. Opus 4.6๋ 'Henry'๋ผ๋ ๋ฉ์ธ ์ค์ผ์คํธ๋ ์ดํฐ๋ฅผ ๊ตฌ๋ํ๋ฉฐ, Mac Mini์์๋ ๋ก์ปฌ MiniMax๊ฐ ์์ด์ ํธ๋ฅผ ๋ด๋นํ๋ ๊ตฌ์กฐ๋ก ๊ฐ ๋ชจ๋ธ์ ์ญํ ์ ๋ถ์ฐ์ํจ ์ค์ ์ ์ค๋ช ํ๊ณ ์์ต๋๋ค.

Notes on my planned setup: Kimi K2.5 running across both Mac Studios using @exolabs Also will have MiniMax 2.5 running at the same time. Opus 4.6 will power Henry, the main orchestrator. The local MiniMax will power the agent on the Mac Mini. Kimi K2.5 will power the 2nd Studio
Cerebras (@cerebras)
2018๋ BERT-Large(3.4์ต ํ๋ผ๋ฏธํฐ)์ ๋น๊ตํด ์ค๋๋ Kimi-k2 ๊ฐ์ ์ต์ฒจ๋จ ๋ชจ๋ธ์ 1์กฐ ํ๋ผ๋ฏธํฐ๋ฅผ ๋๊ฒจ ์ฝ 3,000๋ฐฐ ์ฑ์ฅํ์ต๋๋ค. Cerebras์ ์ฐ๊ตฌ ์ฑ ์์ @dmsobol์ด ํนํ MoE(ํผํฉ ์ ๋ฌธ๊ฐ) ์ํคํ ์ฒ๊ฐ ๊ท๋ชจ ํ๋ ์ ์ด์ฉยท์คํ ์ธก๋ฉด์์ ์ ๊ทผ๋ณธ์ ์ผ๋ก ์ด๋ ค์ด์ง ์ค๋ช ํฉ๋๋ค.

In 2018, BERT-Large had 340 million parameters. Today, frontier models like Kimi-k2 exceed one trillion parameters, a 3,000x increase. In this conversation, @dmsobol, Head Research Scientist at Cerebras, explains why bigger models (especially MoEs) are fundamentally hard to run
Bindu Reddy (@bindureddy)
์คํ์์ค๊ฐ ๊ฐ์ธ๋ผ๋ ๋ด์ฉ์ผ๋ก Kimi K2์ GLM 5๊ฐ ์์๊ถ์ ์ฐจ์งํ๋ค๋ ์์์ ๋๋ค. ๊ฒ์์๋ ์คํ์์ค์ ํด๋ก์ฆ๋ ์์ค LLM์ ํผํฉํด ์์ ๋ณ๋ก ์ต์ ์ ๋ชจ๋ธ์ ์๋์ผ๋ก ์ ํํด ํจ์จ์ ๊ทน๋ํํ๋ค๊ณ ์๋ฆฌ๊ณ ์์ด, ๋ฉํฐ-LLM ์ ๋ตยท๋ชจ๋ธ ์ ํ ์๋ํ์ ๊ด๋ จ๋ ๋ฐํ๋ก ํด์๋ฉ๋๋ค.
้ใฎใใฏใใช (@gosrum)
GLM-5์ Claude Opus 4.5/4.6 ๋ฐ KimiโK2.5์ ์ฑ๋ฅ์ ํฐ ์ฐจ์ด๋ ์์ง๋ง, ์ธํ๋ผ๊ฐ ์ฝํด ์์ ์๋ฃ ์๊ฐ(์๋ต ์๋) ๋ฉด์์ ๋ค์ฒ์ง๋ ๊ฒ์ผ๋ก ๋ณด์ ๋๋ค. ์ฑ๋ฅ ์์ฒด๋ ์ค์ํ๋ ๋ฐฐํฌยท์ธํ๋ผ ํ๊ฒฝ ์ฐจ์ด๋ก ์ค์ ์๋ต ์ง์ฐ์ด ๋ฐ์ํ๋ค๋ ๊ด์ฐฐ์ ๋๋ค.