Tìm mô hình LLM nhỏ gọn (dưới 3B tham số) để sửa lỗi code Python trên M2 Pro 16GB. Đang cân nhắc Qwen3-0.6B, Qwen2.5-Coder-1.5B. Ai có gợi ý hoặc kinh nghiệm dùng Ollama/llama.cpp với các mô hình này không? Chia sẻ cả thông số lượng tử hóa (Q4, Q5) và tốc độ token/s nhé!
#LocalLLaMA #LLM #Python #AI #MachineLearning #Qwen #Ollama #M2Pro #Vietnamese #AIVietNam

