Cursor가 Composer 2를 출시했습니다. Kimi-k2.5 모델이 기반을 제공했으며, Cursor의 추가 사전학습과 고성능 강화학습(RL) 트레이닝을 통해 효과적으로 통합되었습니다. Cursor는 승인된 상업적 파트너십의 일환으로 FireworksAI의 호스팅 RL·추론 플랫폼을 통해 Kimi-k2.5에 접근합니다.

https://x.com/Kimi_Moonshot/status/2035074972943831491

#ai #cursor #kimik2.5 #fireworksai #reinforcementlearning

Kimi.ai (@Kimi_Moonshot) on X

Congrats to the @cursor_ai team on the launch of Composer 2! We are proud to see Kimi-k2.5 provide the foundation. Seeing our model integrated effectively through Cursor's continued pretraining & high-compute RL training is the open model ecosystem we love to support.

X (formerly Twitter)
Will Kimi K2 dominate the AI arena? #AI #kimi #kimik2
😂 Oh joy, another repackaged "innovation" — the same old #software with a new twist of "RandomLabel" magic. 🙄 JavaScript's out, but fear not, you'll just need to sacrifice your #browser #privacy on the altar of Kimi K2.5! 🚀
https://twitter.com/fynnso/status/2034706304875602030 #innovation #KimiK2.5 #HackerNews #ngated
Fynn (@fynnso) on X

was messing with the OpenAI base URL in Cursor and caught this accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast so composer 2 is just Kimi K2.5 with RL at least rename the model ID

X (formerly Twitter)
Fynn (@fynnso) on X

was messing with the OpenAI base URL in Cursor and caught this accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast so composer 2 is just Kimi K2.5 with RL at least rename the model ID

X (formerly Twitter)

Fili (@filiksyos)

Openclaw 팁: 기본 모델로 'kimi k2.5'를 쓰라는 권장입니다. 트윗은 kimi k2.5가 Sonnet 수준의 지능을 보여주면서 비용은 약 7.5배 저렴하고 Openclaw에서 가장 많이 쓰이는 모델이라 소개하며, 컨텍스트가 길어지면 느려지고 성능이 떨어지므로 /compact 명령을 사용하라고 권합니다.

https://x.com/filiksyos/status/2027732200612106341

#openclaw #kimik2.5 #llm #optimization

Fili (@filiksyos) on X

Openclaw pro tip Use kimi k2.5 as your default model Sonnet level intelligence but 7.5 times cheaper it's the most used model for openclaw As context grows, it will get slower and dumber so use /compact command

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

1조(1T) 파라미터급 모델(예: Kimi K2.5)을 로컬에서 실행하는 사례 보고: 작성자는 두 대의 Mac Studio M3 Ultra(512GB)에서 Apple MLX를 사용해 약 630GB RAM으로 모델을 구동해 초당 20토큰을 달성했고, @exolabs에서 실행했으며 @opencode를 활용해 자동 플레이 가능한 스네이크 게임을 생성하는 시연을 업로드했습니다. 로컬 LLM 실행과 실사용 데모를 보여주는 기술적 성과입니다.

https://x.com/ivanfioravanti/status/2027278474155639133

#localllm #kimik2.5 #applemlx #macstudio #opencode

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Can we run locally a 1T parameters like Kimi K2.5? 👀 Yes we can! Here it is: - running at 20 toks/s on @exolabs with Apple MLX on my two Mac Studio M3 Ultra 512GB using ~630GB RAM - @opencode used to create a snake game with autoplay - You can see model creating the game and

X (formerly Twitter)

Islem Maboud (@Ipenywis)

Kimi_Moonshot의 'kimi k2.5'를 셀프 호스팅 모델으로 적극 추천하는 후기. 사용자가 오랜 기간 사용해 본 결과 안정적으로 작동한다고 평가하며, 이 모델 때문에 Anthropic 구독을 취소할 근거를 찾았다고 밝힘.

https://x.com/Ipenywis/status/2027126934954471801

#kimik2.5 #selfhosted #llm #model

Islem Maboud (@Ipenywis) on X

kimi k2.5 by @Kimi_Moonshot is king for self hosted models so many people are sleeping on it but I have been using it for a good amount and it just works I think I finally found an excuse to cancel my @AnthropicAI sub

X (formerly Twitter)

ビリー・チウ (@EikaChiu)

웹 개발 코딩 작업에서 중국산 OSS 모델이 Top10에 3개 진입했다는 소식입니다. 순위는 6위: glm-5(@Zai_org), 7위: minimax-m2.5(@MiniMax_AI), 9위: kimi-k2.5-thinking(@Kimi_Moonshot). 통계 출처는 @arena이며 중국 오픈소스 모델의 약진을 강조합니다.

https://x.com/EikaChiu/status/2024038271773511743

#opensource #modelranking #glm5 #minimaxm2.5 #kimik2.5

ビリー・チウ (@EikaChiu) on X

Web開発のコーディングタスクで、中国のOSSモデルがなんと3つもトップ10にランクイン!今の勢いを感じますね。 6位: glm-5 (@Zai_org) 7位: minimax-m2.5 (@MiniMax_AI) 9位: kimi-k2.5-thinking (@Kimi_Moonshot) Stats by @arena

X (formerly Twitter)

Alex Finn (@AlexFinn)

계획 중인 로컬 AI 구성 노트: Exolabs를 통해 두 대의 Mac Studio에서 Kimi K2.5를 구동하고, 동시에 MiniMax 2.5도 운영합니다. Opus 4.6는 'Henry'라는 메인 오케스트레이터를 구동하며, Mac Mini에서는 로컬 MiniMax가 에이전트를 담당하는 구조로 각 모델의 역할을 분산시킨 설정을 설명하고 있습니다.

https://x.com/AlexFinn/status/2023608113530892786

#exolabs #kimik2.5 #minimax2.5 #opus4.6

Alex Finn (@AlexFinn) on X

Notes on my planned setup: Kimi K2.5 running across both Mac Studios using @exolabs Also will have MiniMax 2.5 running at the same time. Opus 4.6 will power Henry, the main orchestrator. The local MiniMax will power the agent on the Mac Mini. Kimi K2.5 will power the 2nd Studio

X (formerly Twitter)

Cerebras (@cerebras)

2018년 BERT-Large(3.4억 파라미터)와 비교해 오늘날 Kimi-k2 같은 최첨단 모델은 1조 파라미터를 넘겨 약 3,000배 성장했습니다. Cerebras의 연구 책임자 @dmsobol이 특히 MoE(혼합 전문가) 아키텍처가 규모 확대 시 운용·실행 측면에서 왜 근본적으로 어려운지 설명합니다.

https://x.com/cerebras/status/2023789540184584427

#modelscaling #moe #cerebras #kimik2

Cerebras (@cerebras) on X

In 2018, BERT-Large had 340 million parameters. Today, frontier models like Kimi-k2 exceed one trillion parameters, a 3,000x increase. In this conversation, @dmsobol, Head Research Scientist at Cerebras, explains why bigger models (especially MoEs) are fundamentally hard to run

X (formerly Twitter)