Ivan Fioravanti ᯅ (@ivanfioravanti)
Qwen3.5-35B-A3B 4bit 모델의 MLX 벤치마크 결과를 M5 Max와 M3 Ultra에서 비교한 테스트 공유다. M5 Max가 더 나은 성능을 보였다고 언급하며, Apple Silicon 기반 로컬 추론 성능에 관심 있는 개발자에게 참고가 될 만하다.
Ivan Fioravanti ᯅ (@ivanfioravanti)
Qwen3.5-35B-A3B 4bit 모델의 MLX 벤치마크 결과를 M5 Max와 M3 Ultra에서 비교한 테스트 공유다. M5 Max가 더 나은 성능을 보였다고 언급하며, Apple Silicon 기반 로컬 추론 성능에 관심 있는 개발자에게 참고가 될 만하다.
[MimikaStudio - 맥용 음성 복제 및 TTS 오픈소스
MimikaStudio는 맥용 음성 복제 및 TTS 오픈소스 도구로, MLX 기반 Metal 가속을 활용해 macOS에서 네이티브 성능을 구현합니다. Qwen3-TTS와 Chatterbox 엔진을 통합해 3초 샘플로 음성 복제가 가능하며, 한국어 포함 23개 언어의 음성 복제와 감정 표현을 지원합니다. 문서 낭독, 오디오북 생성, 고급 작업 큐 오케스트레이션, Multi-LLM 연동 등 다양한 기능을 제공하며, Python과 Dart로 작성된 코드베이스가 Business Source License 1.1 (BSL-1.1) 기반으로 공개되었습니다.
Daniel Han (@danielhanchen)
간단한 예고로 'MLX coming soon :)'을 게시하며 MLX의 곧 출시(또는 공개)를 알립니다. 구체 정보는 없지만 신제품/프로젝트 공개 예고로 해석됩니다.
Prince Canuma (@Prince_Canuma)
MLX가 Mistral의 신규 모델 'Mistral Small 4'에 대해 출시 당일(데이-0) 지원을 시작했습니다. 이는 MistralAI팀의 새 모델 공개와 함께 MLX에서 즉시 배포·실험이 가능해졌음을 의미하며, 개발자와 연구자들에게 접근성·테스트 속도 향상으로 이어질 전망입니다. 축하 메시지가 포함되어 있습니다.

AI-powered document organiser. Extracts text and/or sorts documents: Drop in a bunch of PDFs, DOCX files, or ebooks, and it extracts Document Text, identifies Title, Author, and Year, with a local ...
Apple should’ve continued to ignored the #LLM AI hype
Remained focused on #HomeAutomation
Continue #NeuralAccelerator hardware & #MLX software development, enable running useful LLM locally
Partner with Steam, make running #Games on macOS & porting to iOS trivially easy
Embrace a “local first, intermittent connections, eventually consistent” view of the future
Be an alternative to the “cloud first, always on, always connected” future everyone else in trying to sell
Trevin Peterson (@TrevinPeterson)
Apple Silicon 및 MLX용으로 autoresearch의 포트를 작성해 Mac에서 네이티브 실행 가능하게 했다는 공개 소식입니다. PyTorch 불필요, M4 Max에서 depth=4가 depth=8보다 5분 예산에서 더 많은 옵티마이저 스텝이 유리하다는 실험적 발견도 함께 보고되었고, 관련 코드는 github.com/trevin-creator/autoresearch-mlx 에 공개되었습니다.

Built an Apple Silicon / MLX port of your autoresearch — runs natively on Mac, no PyTorch needed. The loop found that depth=4 beats depth=8 on M4 Max because more optimizer steps > more parameters in a 5-min budget. https://t.co/BRvG6kLzuc @karpathy