LM Studio (@lmstudio)
최신 MLX 엔진 업데이트로 비전 모델 배칭 기능이 베타로 제공되며, 캐싱 개선으로 전체 추론 속도도 빨라졌다. LM Studio에서 Developer Mode와 베타 런타임 채널을 통해 MLX v1.8.1을 사용할 수 있다.
LM Studio (@lmstudio)
최신 MLX 엔진 업데이트로 비전 모델 배칭 기능이 베타로 제공되며, 캐싱 개선으로 전체 추론 속도도 빨라졌다. LM Studio에서 Developer Mode와 베타 런타임 채널을 통해 MLX v1.8.1을 사용할 수 있다.

Batching for vision models is now available in Beta with our latest MLX engine update 👾 The updated engine also brings major improvements to caching for faster inference overall. Turn on Developer Mode, choose the beta runtime channel, and select LM Studio MLX v1.8.1.
Ivan Fioravanti ᯅ (@ivanfioravanti)
LM Studio가 MLX 관련 지원을 다시 강화하고 있어, 애플 실리콘 기반 로컬 AI 모델 실행 및 개발 경험 개선이 이어질 것으로 보인다. 구체적 기능은 언급되지 않았지만 MLX 생태계에 대한 중요한 업데이트로 볼 수 있다.
Ollama ve LM Studio ile 0 Gizli Yerel LLM Kurulumu: 2026 Güncel Rehberi https://1yz.com.tr/d/39-ollama-ve-lm-studio-ile-100-gizli-yerel-llm-kurulumu-2026-guncel-rehberi

Ollama ve LM Studio ile %100 Gizli Yerel LLM Kurulumu (2026 Güncel Rehber) Yapay zeka modelleriyle çalışırken verilerinizin OpenAI, Google veya Anthropic gi...
Testing some #LLM to aid in article construction, I made an hypothetic #StarFox review.
I believe LLM are great when asking to fill in, fact check, rewrite and reorganize ideas into a clear line of thought.
I'm going to publish it and then see after a month if it predicted the future correctly, or not, for the lolz.
Also, Unsloth's Gemma 4 26B/A4B breaks to shit with Repeat Penalty below 0.8.
#AI #LLM #LMStudio #ChatBot #LargeLanguageModel #ArtificialIntelligence
Running local models on an M4 with 24GB memory
24GB 메모리의 M4 MacBook Pro에서 로컬 LLM을 실행하는 실험 사례를 공유합니다. Qwen 3.5-9B 모델을 LM Studio와 함께 사용해 128K 컨텍스트 윈도우와 도구 활용이 가능한 환경을 구축했으며, 인터넷 연결 없이도 기본 작업과 코딩 지원이 가능합니다. SOTA 모델 대비 성능은 떨어지지만, 직접 모델을 조작하며 인터랙티브한 워크플로우를 경험할 수 있고, 구독 비용 없이 로컬에서 AI를 활용하는 장점이 있습니다. 설정과 튜닝이 까다롭고 한계도 있지만, 개발자 입장에서 실용적이고 재미있는 시도입니다.
@TheMorpheus
#qwen3 4B aufm Laptop mit #lmstudio: Für Code oder auch Arbeit an Texten, die nicht in die Cloud gehört. Und warum speziell dieses Modell? Weil ≤4B Modelle rar gesät sind und es eben auf meinem Laptop mit iGPU bzw. im CPU-Mode läuft. 5-7 Tokens/sec Output statt 0,8 bis 2 von anderen Modellen vergleichbarer Größe. Und nach Politik frage ich das nicht. Von daher kann mir Chinas Meinung egal sein UND den Output kontrolliere ich sowieso.
/3