Migliori LLM locali del 2026: usali con Ollama o LM Studio
https://www.risposteinformatiche.it/migliori-modelli-llm-locali-2026-ollama-lm-studio/Migliori LLM locali del 2026: usali con Ollama o LM Studio
https://www.risposteinformatiche.it/migliori-modelli-llm-locali-2026-ollama-lm-studio/Playing with #OpenHands and #Devstral from #MistralAI. I already hit a RateLimitError 429 ☹️ I'm also missing the time I can resume my work. And yes, I have activated the tokens compression settings.
It's not today that I'll be able to evaluate whether it's better than Claude Code or not.
The internet(tm) claims that DevStral2 would be almost on par with Claude Sonnet 4.5.
Also, open weights model with 120B, i.e. reasonable on current om-prem hardware a la AMDs 395+.
Prices are also pretty ok if hosted, also: EU hostable.
Did anyone compare that thing to the above Claude model, ideally using Claude Code as control system?
I'd also be interested in on-prem reports, ideally also with one of the AMD 395+ UMA boxes.
#llm #claudecode #claude_sonnet_45 #sonnet45 #devstral #devstral2 #mistral #aicoding #uma #amd #amdstrixhalo
Hướng dẫn nhanh cấu hình Aider với mô hình local: tạo 3 file trong ~/.
1️⃣ ~/.aider.conf.yml → endpoint, API‑key, model và đường dẫn file khác.
2️⃣ ~/.aider.model.settings.yml → định dạng diff, repo map, v.v.
3️⃣ ~/.aider.model.metadata.json → max tokens, chi phí.
Lưu ý: luôn prepend “openai/” vào model ID; Aider sẽ tự xóa khi gửi tới server. #Aider #CấuHình #LLM #OpenAI #Mistral #Devstral #Linux
https://www.reddit.com/r/LocalLLaMA/comments/1qis3y9/aiders_documentation_for_getting_conne
Mistral Devstral-Small-2-24B đang nổi lên như "ông vua" mới cho lập trình local trên hệ thống 72GB VRAM (3xRTX 3090).
Điểm mạnh vượt trội:
- Chạy mượt ở định dạng Q8 với context window lớn (>150k token).
- Hỗ trợ xử lý hình ảnh (Multimodal) giúp kiểm tra UI/UX và sơ đồ thiết kế.
- Tốc độ phản hồi cực nhanh khi nằm trọn trong VRAM.
- Khả năng tuân thủ chỉ dẫn tốt khi kết hợp với các Agent như Kilo Code.
#MistralAI #Devstral #AI #Coding #LocalLLM #VRAM #AIProgramming #LậpTrình #CôngNghệ
https:/
Trải nghiệm lập trình local với Devstral Small 2 (24B) trên card RTX 5060 Ti 16GB cực mượt!
🔹 Setup: Devstral-Small-2 (Q4_K_M), context 24k, chạy hoàn toàn trên 16GB VRAM.
🔹 Tốc độ: Xử lý prompt ~650 tok/s, tạo token 9-11 tok/s.
🔹 Kết hợp: Dùng với Zed Agent mang lại hiệu quả cao hơn Claude Code nhờ hệ thống prompt ngắn gọn.
🔹 Chất lượng: Xử lý tốt các tác vụ code phức tạp, tự động đọc file, chạy lệnh test và sửa lỗi khi có hướng dẫn chi tiết.