Alex Cheema (@alexocheema)
Kimi K2.5가 MacBook Pro와 4대의 M3 Ultra Mac Studio에서 구동된 사례 공유. ExoLabs(@exolabs)가 이기종 장치들로 구성된 메시에 분산 추론(distributed inference)을 지원하며, 향후 M5 Pro/Max/Ultra가 나오면 클러스터에 추가해 사용할 수 있다는 안내로 하드웨어-소프트웨어 혼합 클러스터 활용 사례를 소개.
Alex Cheema (@alexocheema)
Kimi K2.5가 MacBook Pro와 4대의 M3 Ultra Mac Studio에서 구동된 사례 공유. ExoLabs(@exolabs)가 이기종 장치들로 구성된 메시에 분산 추론(distributed inference)을 지원하며, 향후 M5 Pro/Max/Ultra가 나오면 클러스터에 추가해 사용할 수 있다는 안내로 하드웨어-소프트웨어 혼합 클러스터 활용 사례를 소개.
AISatoshi (@AiXsatoshi)
사용자가 2대의 Ubuntu 서버에서 약 200GB 크기의 GLM-4.7-IQ4 모델을 이용해 분산 추론 실험을 진행했으며, 이후 약 500GB 규모의 GLM-5-Q4 모델로 확장하여 테스트하려는 계획을 언급함. 대용량 AI 모델의 분산 추론과 관련된 실험적 시도로, 대규모 언어 모델 운영 효율화에 도움이 될 만한 기술적 사례임.
Awni Hannun (@awnihannun)
mlx-lm 최신 버전이 공개되었습니다. 신규 모델 Kimi K2.5, Step3.5 flash, LongCat Flash lite(@kernelpool 기여) 추가되었고, mlx_lm.server로 분산 추론 지원(@angeloskath 기여)이 도입되었습니다. 또한 DeepSeek v3 등 MLA 기반 모델들의 속도 및 메모리 효율이 크게 개선되었습니다.

Latest mlx-lm is out: - New models: Kimi K2.5, Step3.5 flash, LongCat Flash lite thanks to @kernelpool - Support for distributed inference with mlx_lm.server thanks to @angeloskath - Much faster and more memory efficient DeepSeek v3 (and other MLA-based models)
Ivan Fioravanti ᯅ (@ivanfioravanti)
MLX 분산 추론을 2대의 M3 Ultra(각 512GB)에서 Step-3.5-Flash-6bit 모델로 테스트 중이며, 로컬에서 구동되는 Space Invaders 게임을 Vite + JavaScript + Phaser 3 엔진으로 곧 공개할 예정이라는 개발/테스트 업데이트.
llm-d, Kubernetes native distributed inference
https://llm-d.ai/blog/llm-d-announce
#HackerNews #llm-d #Kubernetes #distributedinference #AItechnology #cloudnative