Kimi hanging upside on a tree branch while having herself a soft pretzel covered in cheese

Sketch Commission by @Osito

Kimi Bat belong to ME

#Kimi #Bat #Girl #Baby #Cute #Diaper #Nappy #Babyfur #Diaperfur #Red #Shirt #Soft #Pretzel #Cheese #Covered #eat #eating #hang #hanging #upside #down #tree #branch #snack

AISatoshi (@AiXsatoshi)

Kimi의 Yang Zhiling이 AGI를 단순한 순수 연구가 아니라 과학, 공학, 제품, 상업이 결합된 체계로 본다는 관점을 소개한다. 이를 위해 조직은 매우 평평해야 하며, 부서·직급·OKR·KPI 없이 직접 소통 중심으로 재설계돼야 한다고 말한다.

https://x.com/AiXsatoshi/status/2040301515517354152

#agi #organization #product #management #kimi

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

Kimiの楊植麟は2024年時点で、AGIは純研究ではなく、科学・工学・プロダクト・商業の結合体であり、組織は技術に適合するよう再設計されるべきと言う 極端にフラットで、伝達コストを嫌う。直接沟通が象徴語として置かれ、部門・職級・Title・OKR・KPIがない

X (formerly Twitter)

AISatoshi (@AiXsatoshi)

Kimi와 DeepSeek 같은 AI 랩의 조직 운영 방식이 매우 혁신적이라는 의견이다. 권위와 합의 형성에 에너지를 쓰기보다, 천재 엔지니어 중심의 유연한 운영이 진정한 혁신 모델을 만드는 데 더 적합하다는 취지로 평가한다.

https://x.com/AiXsatoshi/status/2040297706330226880

#kimi #deepseek #agi #organization #ai

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

KimiやDeepseekのラボの天才エンジニアらしい組織運営がクール 権威と合意形成に消耗しながら作っても真に革新的なモデルは作れないんだろな

X (formerly Twitter)

Kimi·Cursor·Chroma가 에이전틱 AI를 훈련한 방식, 세 가지 공통 원칙

Kimi K2.5·Cursor Composer 2·Chroma Context-1이 강화학습으로 에이전틱 AI를 훈련한 방식 비교. 세 팀이 독립적으로 도달한 3가지 공통 원칙을 소개합니다.

https://aisparkup.com/posts/10652

#Kimi ferma più?

#F1

ZOYA ✪ (@HeyZoyaKhan)

KIMI AI가 프로젝트 기획, 워크플로 자동화, 보고서 작성, 복잡한 업무 해결까지 수행할 수 있다고 소개하며, 마치 고액 COO처럼 프로 업무를 빠르게 처리해 주는 생산성 도구로 강조한다. 함께 실무에 활용할 수 있는 12가지 KIMI 프롬프트도 공유했다.

https://x.com/HeyZoyaKhan/status/2037922016184185211

#kimi #aiassistant #productivity #automation #llm

ZOYA ✪ (@HeyZoyaKhan) on X

🚨 BREAKING: KIMI AI cooked half of the internet. It can plan projects, automate workflows, write reports, and solve complex tasks like a $500/h COO (for free). Here are 12 KIMI prompts to complete your months of professional work in hours: (save this)

X (formerly Twitter)

Max Weinbach (@mweinbach)

Exo가 Kimi K2.5와 함께 사용했을 때 이전보다 개선되어, 처리 속도가 초당 25토큰으로 올라가고 배치 처리와 전력 효율도 나아졌다고 언급한다. AI 추론/실행 성능 개선을 보여주는 업데이트다.

https://x.com/mweinbach/status/2037366033585975477

#exo #kimi #inference #performance #llm

Max Weinbach (@mweinbach) on X

There have definitely been some improvements to Exo since I last tried it with Kimi K2.5 Now runs at 25 tok/s with proper batching and power usage seems to be a bit lower!

X (formerly Twitter)
Yesterday I started chatting with #Kimi-K2.5 on the #Ollama cloud and described a pain point. A bit of constructive back and forth, but then I had an idea so I copied the chat to #Claude and realized that I didn’t need to struggle so hard about #VMWare #VeloCloud GUI #arp tables to help me get the IP’s from the MAC addresses I had. I have #QNAP #NAS devices in every branch of my #workplace! So I set up #ssh key pairs to each QNAP, passwordless access. (1/3)

AISatoshi (@AiXsatoshi)

Kimi K2.5의 기술 포인트를 소개한 글로, 1T 파라미터 LLM 학습 성공과 함께 context, Agent, multimodal로의 확장을 강조한다. MU Optimizer와 QK Clip은 학습 안정성을 해치지 않으면서 더 적은 토큰으로 더 똑똑하게 만들고, Kim linear는 초장문에서 필요한 정보는 남기고 불필요한 정보는 잊도록 돕는다. Agent Swarms도 핵심 기능으로 언급된다.

https://x.com/AiXsatoshi/status/2036464855650279815

#llm #kimi #agent #multimodal #opensource

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

1TパラメータのLLM学習を成功させ、context、Agent、multimodalにスケールする Kimi K2.5の技術ポイント MU Optimizer + QK Clip =学習を壊さず、少ないトークンでより賢くする Kim linear =超長文でも、必要な情報を残して不要な情報を忘れやすくする Agent Swarms

X (formerly Twitter)

Simon Willison (@simonw)

거대한 Mixture-of-Experts 모델도 Mac 하드웨어에서 전체를 RAM에 올리지 않고 SSD에서 전문가 가중치를 일부씩 스트리밍해 실행할 수 있다는 점을 소개한다. Kimi 2.5는 1T 파라미터지만 활성화되는 32B만 필요해 96GB 메모리에서 구동 가능하다고 언급한다.

https://x.com/simonw/status/2036294026438254783

#mixtureofexperts #mac #ssd #kimi #llm

Simon Willison (@simonw) on X

Turns out you can run enormous Mixture-of-Experts on Mac hardware without fitting the whole model in RAM by streaming a subset of expert weights from SSD for each generated token - and people keep finding ways to run bigger models Kimi 2.5 is 1T, but only 32B active so fits 96GB

X (formerly Twitter)