📦 Cân nhắc xem liệu nên đầu tư 2.5x giá để upgrad lên 64GB VRAM + 128GB RAM cho LLM chạy local. Dù mô hình 13B quant hóa trước đây hoạt động yếu (chậm, kém hiệu quả), việc nâng VRAM & RAM có thể cải thiện đáng kể khả năng xử lý hàng trăm dòng code & tài liệu. Tuy nhiên, cần cân bằng giữa nhu cầu thực tế và chi phí. #AI #LocalLLM #CôngNghệ #HệThốngNhà #CodeAssistant
https://www.reddit.com/r/LocalLLaMA/comments/1pisqnn/is_local_ai_worth_it/



