Apple MLX vs. llama.cpp: compared and benchmarked [video]
Protorikis가 공개한 벤치마크 영상에서는 Apple MLX와 llama.cpp(GGUF 런타임 포함)를 실제 사용 시나리오에서 비교했다. 테스트는 MacBook Pro M3 Max 환경에서 Qwen3.6 35B 모델을 대상으로 진행되었으며, MLX가 특정 상황에서 속도 향상을 보이나, 프롬프트 캐싱 부재, 메모리 압박, 불안정한 성능 문제도 발견되었다. Ollama의 MLX 엔진(NVFP4 포함)과 LM Studio 백엔드도 함께 비교되어, GGUF와 MLX 중 선택 시 참고할 만한 실무적 인사이트를 제공한다. 이 영상은 MLX와 llama.cpp의 실제 성능 차이를 이해하고자 하는 AI 개발자에게 유용하다.









