Ivan Fioravanti ᯅ (@ivanfioravanti)

Qwen3.5-35B-A3B 4bit 모델의 MLX 벤치마크 결과를 M5 Max와 M3 Ultra에서 비교한 테스트 공유다. M5 Max가 더 나은 성능을 보였다고 언급하며, Apple Silicon 기반 로컬 추론 성능에 관심 있는 개발자에게 참고가 될 만하다.

https://x.com/ivanfioravanti/status/2034696263032037476

#mlx #qwen #benchmark #applesilicon #llm

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

MLX Benchmark test Qwen3.5-35B-A3B-4bit MLX Benchmark Results M5 Max s M3 Ultra! The winner is M5 Max! 🥇 Details for each run in 🧵

X (formerly Twitter)

[MimikaStudio - 맥용 음성 복제 및 TTS 오픈소스

MimikaStudio는 맥용 음성 복제 및 TTS 오픈소스 도구로, MLX 기반 Metal 가속을 활용해 macOS에서 네이티브 성능을 구현합니다. Qwen3-TTS와 Chatterbox 엔진을 통합해 3초 샘플로 음성 복제가 가능하며, 한국어 포함 23개 언어의 음성 복제와 감정 표현을 지원합니다. 문서 낭독, 오디오북 생성, 고급 작업 큐 오케스트레이션, Multi-LLM 연동 등 다양한 기능을 제공하며, Python과 Dart로 작성된 코드베이스가 Business Source License 1.1 (BSL-1.1) 기반으로 공개되었습니다.

https://news.hada.io/topic?id=27628

#tts #voicecloning #opensource #macos #mlx

MimikaStudio - 맥용 음성 복제 및 TTS 오픈소스

<ul> <li>음성 복제·텍스트 음성 변환·문서 낭독·오디오북 제작 기능을 통합 제공</li> <li> <strong>MLX 기반 Metal 가속</strong>을 활용해 macO...

GeekNews

Daniel Han (@danielhanchen)

간단한 예고로 'MLX coming soon :)'을 게시하며 MLX의 곧 출시(또는 공개)를 알립니다. 구체 정보는 없지만 신제품/프로젝트 공개 예고로 해석됩니다.

https://x.com/danielhanchen/status/2033938752322867249

#mlx #release #mltools #announcement

Daniel Han (@danielhanchen) on X

@ivanfioravanti @UnslothAI MLX coming soon :)

X (formerly Twitter)

Prince Canuma (@Prince_Canuma)

MLX가 Mistral의 신규 모델 'Mistral Small 4'에 대해 출시 당일(데이-0) 지원을 시작했습니다. 이는 MistralAI팀의 새 모델 공개와 함께 MLX에서 즉시 배포·실험이 가능해졌음을 의미하며, 개발자와 연구자들에게 접근성·테스트 속도 향상으로 이어질 전망입니다. 축하 메시지가 포함되어 있습니다.

https://x.com/Prince_Canuma/status/2033720455673082141

#mistralai #mistralsmall4 #mlx #llm

Prince Canuma (@Prince_Canuma) on X

Day-0 support on MLX for Mistral Small 4🚀 Congratulations to the @MistralAI team on the release.

X (formerly Twitter)
If you use it with a local backend (@[email protected], #llama.cpp , #mlx, #mistral-rs), every step runs on your device; nothing leaves your machine unless you configure a cloud provider (it supports EU-based ones, e.g. #Nebius @[email protected], or #Mistral).

GitHub - CrispStrobe/CrispSort...
GitHub - CrispStrobe/CrispSorter: AI-powered document organiser. Extracts text and/or sorts documents: Drop in a bunch of PDFs, DOCX files, or ebooks, and it extracts Document Text, identifies Title, Author, and Year, with a local or remote LLM, and moves them into folders, and/or keeps the extracted text.

AI-powered document organiser. Extracts text and/or sorts documents: Drop in a bunch of PDFs, DOCX files, or ebooks, and it extracts Document Text, identifies Title, Author, and Year, with a local ...

GitHub

Apple should’ve continued to ignored the #LLM AI hype

Remained focused on #HomeAutomation

Continue #NeuralAccelerator hardware & #MLX software development, enable running useful LLM locally

Partner with Steam, make running #Games on macOS & porting to iOS trivially easy

Embrace a “local first, intermittent connections, eventually consistent” view of the future

Be an alternative to the “cloud first, always on, always connected” future everyone else in trying to sell

#UnpopularOpinion

@twostraws I fine-tuned a language model on a MacBook Neo with 8GB of RAM.
Peak memory: 2.3 GB. Training time: 20 minutes. Cost: $0.
None of this works without MLX. Thank you to the MLX team for making local training actually accessible.
Full writeup on what I got wrong and what finally worked:
taylorarndt.substack.com/p/i-trained-an-llm-on-my-macbook-neo
#MLX #AppleSilicon #MacBookNeo #MachineLearning #FineTuning #LocalAI #Swift #Apple
Big thanks to Prince Canuma for MLX Audio and to Awni Hannun, Angelos Katharopoulos, and David Koski for MLX, MLX Swift, and MLX Swift LM.
This is a preview and we want your help. Find something broken? Drop it in the replies or open an issue.
What would you like to see in Perspective Studio next?
https://github.com/Techopolis/Perspective-Studio
#MLX #OpenSource #AppleSilicon #SwiftUI #LocalAI #macOS #Swift (2/2)
@mikedoise
This is what a local AI model manager should look like on a Mac.
Built with SwiftUI. Runs MLX models natively. Everything on device, nothing leaves your Mac.
Fully open source. Not Electron.
Coming soon.
#BuildInPublic #MacOS #SwiftUI #MLX #AITools #IndieApps #PrivacyFirst #OpenSource

Trevin Peterson (@TrevinPeterson)

Apple Silicon 및 MLX용으로 autoresearch의 포트를 작성해 Mac에서 네이티브 실행 가능하게 했다는 공개 소식입니다. PyTorch 불필요, M4 Max에서 depth=4가 depth=8보다 5분 예산에서 더 많은 옵티마이저 스텝이 유리하다는 실험적 발견도 함께 보고되었고, 관련 코드는 github.com/trevin-creator/autoresearch-mlx 에 공개되었습니다.

https://x.com/TrevinPeterson/status/2030611877198221458

#applesilicon #opensource #autoresearch #mlx

Trevin Peterson (@TrevinPeterson) on X

Built an Apple Silicon / MLX port of your autoresearch — runs natively on Mac, no PyTorch needed. The loop found that depth=4 beats depth=8 on M4 Max because more optimizer steps > more parameters in a 5-min budget. https://t.co/BRvG6kLzuc @karpathy

X (formerly Twitter)