Alex Cheema (@alexocheema)

4년 된 M1 Max Mac Studio 6대를 재활용해 MiniMax AI의 M2.5를 Exo Labs로 실행하는 사례가 공유됐다. 중고 장비와 높은 메모리 대역폭을 활용해 저비용으로 대규모 AI 클러스터를 구성할 수 있음을 보여준다.

https://x.com/alexocheema/status/2037001428758135192

#minimax #exolabs #macstudio #aicluster #m1max

Alex Cheema (@alexocheema) on X

6 x M1 Max mac studios repurposed to run @MiniMax_AI M2.5 using @exolabs. These are 4 year old devices, each with 400GB/s memory bandwidth (total 2.4TB/s). Second hand each mac is ~$1.2k.

X (formerly Twitter)

Alex Cheema (@alexocheema)

M1 Max Mac Studio 6대로 구성한 홈 클러스터에서 MiniMax AI의 M2.5 모델을 Exo Labs와 Thunderbolt 4 인터커넥트로 구동하는 사례가 공유됐다. 다양한 AI 홈랩 구성과 이기종 저비용 추론 환경의 가능성을 보여준다.

https://x.com/alexocheema/status/2037276239665258721

#minimax #exolabs #macstudio #homelab #thunderbolt4

Alex Cheema (@alexocheema) on X

6 x M1 Max Mac Studio home cluster. Runs @MiniMax_AI M2.5 (soon M2.7) using @exolabs with Thunderbolt 4 interconnects. Cool to see all the diversity of AI homelab setups. Excited for heterogeneous setups which should be even more cost effective.

X (formerly Twitter)

Alex Cheema (@alexocheema)

베이징의 한 학교가 기존의 구형 Mac을 재활용해 Exolabs를 이용, 100% 로컬에서 동작하는 개인화 AI 에이전트를 운영하고 있다는 사례입니다. 해당 Mac들은 원래 영화·영상 편집용으로 쓰였으며 학교 데이터 전체를 흡수시켜 로컬 에이전트를 구동하는 교육적 적용 사례로 소개됩니다.

https://x.com/alexocheema/status/2029505131293864022

#exolabs #localai #macs #education #personalizedagents

Alex Cheema (@alexocheema) on X

China is way ahead on AI adoption. A school in Beijing has repurposed old macs to run personalised AI agents 100% locally using @exolabs The macs were previously used in their film studies lab, for video editing. They have ingested their entire corpus of school data:

X (formerly Twitter)

Tuncer Deniz (@tuncerdeniz)

가정용 클러스터(맥 미니 1대, 맥 스튜디오 2대)에서 Alibaba의 Qwen 3.5 122B 모델을 exolabs와 MLX Ring으로 분산 실행한 사례입니다. 1220억 파라미터 모델을 여러 Mac에 분할해 구동하며, 클라우드나 구독 없이 로컬 환경에서 대형 모델을 운영한 혁신적 데모를 보여줍니다.

https://x.com/tuncerdeniz/status/2028675725126189277

#qwen #llm #mac #edgeai #exolabs

Tuncer Deniz (@tuncerdeniz) on X

Three Macs. One brain. Running @Alibaba_Qwen 3.5 122B across my home cluster with @exolabs, a 122 billion parameter model split across a Mac mini and two Mac Studios using MLX Ring. No cloud. No subscription.😎

X (formerly Twitter)

Tuncer Deniz (@tuncerdeniz)

맥 미니 1대와 맥 스튜디오 2대로 구성한 홈 클러스터에서 exolabs와 MLX Ring을 사용해 Alibaba의 Qwen 3.5(122B)를 분산 실행한 사례 공유. 클라우드나 구독 없이 1220억 파라미터 모델을 여러 맥에 분할해 동작시킨 점을 강조한 혁신적 로컬 배포 시도.

https://x.com/tuncerdeniz/status/2028675725126189277

#qwen #llm #mac #exolabs #mlxring

Tuncer Deniz (@tuncerdeniz) on X

Three Macs. One brain. Running @Alibaba_Qwen 3.5 122B across my home cluster with @exolabs, a 122 billion parameter model split across a Mac mini and two Mac Studios using MLX Ring. No cloud. No subscription.😎

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

exolabs의 최신 버전에서 벤치마크 테스트를 진행하며, /bench/chat/completions 엔드포인트가 호출 간 캐시를 비활성화하는 기능을 제공함을 발견했다고 보고. 캐시 비활성화로 일관된 성능 측정이 가능해 M3 Ultra 성능 테스트에 적합하다는 점을 강조.

https://x.com/ivanfioravanti/status/2028047012109734067

#exolabs #api #benchmark #cache #m3ultra

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Doing some benchmark testing on @exolabs latest version is great! I've found the /bench/chat/completions endpoint that disables cache between calls! Exactly what I need! Let's push these M3 Ultras!

X (formerly Twitter)

mbaril010.eth (@mbaril010)

EXO의 대규모 업데이트로 안정성이 크게 개선되었다는 보고. 작성자는 exolabs에 접속해 AiTasmania와 AiDorothy1을 운영하며, 구형 MacBook Pro를 활용하는 최적의 방법이라고 평가하고 팀(특히 alexocheema)을 칭찬함.

https://x.com/mbaril010/status/2027955970073137502

#exolabs #exo #stability #macbookpro

mbaril010.eth 🦇🔊 (@mbaril010) on X

A huge update for EXO. Seems to be a lot more stable. I run @exolabs , connect @AiTasmania and run @AiDorothy1 Best way to use old macbook pro laying around. Great job @alexocheema and the team

X (formerly Twitter)

Alex Cheema (@alexocheema)

구형 MacBook가 있다면 exolabs에 연결해 더 큰 모델을 돌릴 수 있다는 활용 팁 공유. 남는 노트북을 분산 계산 자원으로 활용해 모델 실행 규모를 키울 수 있다는 실용적인 응용 사례.

https://x.com/alexocheema/status/2028071834680230223

#exolabs #macbook #distributedcompute #ai

Alex Cheema (@alexocheema) on X

If you have old MacBooks laying around, you can connect them with @exolabs to run bigger models.

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

exolabs 최신 버전에서 벤치마크 테스트 중에 /bench/chat/completions 엔드포인트를 찾아냄. 이 엔드포인트는 호출 간 캐시를 비활성화해 실제 성능 측정에 적합하며, M3 Ultra 칩을 활용한 성능 테스트에 딱 맞는 기능이라고 평함.

https://x.com/ivanfioravanti/status/2028047012109734067

#exolabs #benchmarking #api #m3ultra

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Doing some benchmark testing on @exolabs latest version is great! I've found the /bench/chat/completions endpoint that disables cache between calls! Exactly what I need! Let's push these M3 Ultras!

X (formerly Twitter)

Alex Cheema (@alexocheema)

Kimi K2.5가 MacBook Pro와 4대의 M3 Ultra Mac Studio에서 구동된 사례 공유. ExoLabs(@exolabs)가 이기종 장치들로 구성된 메시에 분산 추론(distributed inference)을 지원하며, 향후 M5 Pro/Max/Ultra가 나오면 클러스터에 추가해 사용할 수 있다는 안내로 하드웨어-소프트웨어 혼합 클러스터 활용 사례를 소개.

https://x.com/alexocheema/status/2027815923684392973

#distributedinference #exolabs #kimi #m3ultra #macbookpro

Alex Cheema (@alexocheema) on X

Kimi K2.5 on MacBook Pro + 4 x M3 Ultra Mac Studios. @exolabs supports distributed inference on a mesh of heterogeneous devices. When M5 Pro/Max/Ultra lands, you can add it to your cluster.

X (formerly Twitter)