Alex Cheema (@alexocheema)

베이징의 한 학교가 기존의 구형 Mac을 재활용해 Exolabs를 이용, 100% 로컬에서 동작하는 개인화 AI 에이전트를 운영하고 있다는 사례입니다. 해당 Mac들은 원래 영화·영상 편집용으로 쓰였으며 학교 데이터 전체를 흡수시켜 로컬 에이전트를 구동하는 교육적 적용 사례로 소개됩니다.

https://x.com/alexocheema/status/2029505131293864022

#exolabs #localai #macs #education #personalizedagents

Alex Cheema (@alexocheema) on X

China is way ahead on AI adoption. A school in Beijing has repurposed old macs to run personalised AI agents 100% locally using @exolabs The macs were previously used in their film studies lab, for video editing. They have ingested their entire corpus of school data:

X (formerly Twitter)

Tuncer Deniz (@tuncerdeniz)

가정용 클러스터(맥 미니 1대, 맥 스튜디오 2대)에서 Alibaba의 Qwen 3.5 122B 모델을 exolabs와 MLX Ring으로 분산 실행한 사례입니다. 1220억 파라미터 모델을 여러 Mac에 분할해 구동하며, 클라우드나 구독 없이 로컬 환경에서 대형 모델을 운영한 혁신적 데모를 보여줍니다.

https://x.com/tuncerdeniz/status/2028675725126189277

#qwen #llm #mac #edgeai #exolabs

Tuncer Deniz (@tuncerdeniz) on X

Three Macs. One brain. Running @Alibaba_Qwen 3.5 122B across my home cluster with @exolabs, a 122 billion parameter model split across a Mac mini and two Mac Studios using MLX Ring. No cloud. No subscription.😎

X (formerly Twitter)

Tuncer Deniz (@tuncerdeniz)

맥 미니 1대와 맥 스튜디오 2대로 구성한 홈 클러스터에서 exolabs와 MLX Ring을 사용해 Alibaba의 Qwen 3.5(122B)를 분산 실행한 사례 공유. 클라우드나 구독 없이 1220억 파라미터 모델을 여러 맥에 분할해 동작시킨 점을 강조한 혁신적 로컬 배포 시도.

https://x.com/tuncerdeniz/status/2028675725126189277

#qwen #llm #mac #exolabs #mlxring

Tuncer Deniz (@tuncerdeniz) on X

Three Macs. One brain. Running @Alibaba_Qwen 3.5 122B across my home cluster with @exolabs, a 122 billion parameter model split across a Mac mini and two Mac Studios using MLX Ring. No cloud. No subscription.😎

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

exolabs의 최신 버전에서 벤치마크 테스트를 진행하며, /bench/chat/completions 엔드포인트가 호출 간 캐시를 비활성화하는 기능을 제공함을 발견했다고 보고. 캐시 비활성화로 일관된 성능 측정이 가능해 M3 Ultra 성능 테스트에 적합하다는 점을 강조.

https://x.com/ivanfioravanti/status/2028047012109734067

#exolabs #api #benchmark #cache #m3ultra

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Doing some benchmark testing on @exolabs latest version is great! I've found the /bench/chat/completions endpoint that disables cache between calls! Exactly what I need! Let's push these M3 Ultras!

X (formerly Twitter)

mbaril010.eth (@mbaril010)

EXO의 대규모 업데이트로 안정성이 크게 개선되었다는 보고. 작성자는 exolabs에 접속해 AiTasmania와 AiDorothy1을 운영하며, 구형 MacBook Pro를 활용하는 최적의 방법이라고 평가하고 팀(특히 alexocheema)을 칭찬함.

https://x.com/mbaril010/status/2027955970073137502

#exolabs #exo #stability #macbookpro

mbaril010.eth 🦇🔊 (@mbaril010) on X

A huge update for EXO. Seems to be a lot more stable. I run @exolabs , connect @AiTasmania and run @AiDorothy1 Best way to use old macbook pro laying around. Great job @alexocheema and the team

X (formerly Twitter)

Alex Cheema (@alexocheema)

구형 MacBook가 있다면 exolabs에 연결해 더 큰 모델을 돌릴 수 있다는 활용 팁 공유. 남는 노트북을 분산 계산 자원으로 활용해 모델 실행 규모를 키울 수 있다는 실용적인 응용 사례.

https://x.com/alexocheema/status/2028071834680230223

#exolabs #macbook #distributedcompute #ai

Alex Cheema (@alexocheema) on X

If you have old MacBooks laying around, you can connect them with @exolabs to run bigger models.

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

exolabs 최신 버전에서 벤치마크 테스트 중에 /bench/chat/completions 엔드포인트를 찾아냄. 이 엔드포인트는 호출 간 캐시를 비활성화해 실제 성능 측정에 적합하며, M3 Ultra 칩을 활용한 성능 테스트에 딱 맞는 기능이라고 평함.

https://x.com/ivanfioravanti/status/2028047012109734067

#exolabs #benchmarking #api #m3ultra

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Doing some benchmark testing on @exolabs latest version is great! I've found the /bench/chat/completions endpoint that disables cache between calls! Exactly what I need! Let's push these M3 Ultras!

X (formerly Twitter)

Alex Cheema (@alexocheema)

Kimi K2.5가 MacBook Pro와 4대의 M3 Ultra Mac Studio에서 구동된 사례 공유. ExoLabs(@exolabs)가 이기종 장치들로 구성된 메시에 분산 추론(distributed inference)을 지원하며, 향후 M5 Pro/Max/Ultra가 나오면 클러스터에 추가해 사용할 수 있다는 안내로 하드웨어-소프트웨어 혼합 클러스터 활용 사례를 소개.

https://x.com/alexocheema/status/2027815923684392973

#distributedinference #exolabs #kimi #m3ultra #macbookpro

Alex Cheema (@alexocheema) on X

Kimi K2.5 on MacBook Pro + 4 x M3 Ultra Mac Studios. @exolabs supports distributed inference on a mesh of heterogeneous devices. When M5 Pro/Max/Ultra lands, you can add it to your cluster.

X (formerly Twitter)

ecohash.eth (@ecohash_co)

작성자는 KimiProduct가 Anthropic·Exolabs와 연관되어 'Claude 수준'의 지능을 보였다며 놀라움을 표함. @KimiProduct, @AnthropicAI, @exolabs 언급을 통해 특정 제품 또는 서비스가 Anthropic의 Claude 모델 수준의 성능을 냈다는 평가 또는 주장으로 해석될 수 있음.

https://x.com/ecohash_co/status/2027546005172789330

#anthropic #claude #kimi #exolabs #ai

ecohash.eth (@ecohash_co) on X

Can't even make this up @KimiProduct ... @AnthropicAI @exolabs. "Claude level" intelligence indeed.

X (formerly Twitter)

Alex Cheema (@alexocheema)

exolabs와 함께 2대의 128GB M4 Max Mac Studio에서 Qwen3.5-122B-A10B 모델을 설치·운영하는 상세 가이드를 공유했다. 총비용 약 8천 달러로 동작하며 처리 속도는 52 토큰/초를 기록했고, M5 Max Mac mini 등장 시 소비자 대상 엣지 컴퓨트 접근성이 크게 늘어날 것이라 전망했다.

https://x.com/alexocheema/status/2027416723675042245

#qwen #exolabs #macstudio #edgeai

Alex Cheema (@alexocheema) on X

Super in-depth guide setting up Qwen3.5-122B-A10B on 2 x 128GB M4 Max Mac Studios from scratch w/ @exolabs. Total cost $8k. Runs at 52 tok/sec. Imagine M5 Max mac mini. The amount of edge compute accessible to consumers will be huge: ~27.5% more memory bandwidth & ~4x FLOPS.

X (formerly Twitter)