Mới nâng cấp lên máy N100 (8GB RAM, NVMe) và rất ấn tượng với khả năng xử lý LLM và Stable Diffusion trên phần cứng thấp. Đang thử TinyLlama, Gemma-3, Phi-4-mini cho mã nguồn, dịch thuật, hình ảnh và âm thanh. Khả năng chạy AI local trên thiết bị yếu thật sự bất ngờ. Bạn đang dùng gì cho self-hosted LLM? #LLM #SelfHosted #TinyLlama #StableDiffusion #AI #MachineLearning #AIcụcgạch #HọcMáy #TựChủCôngNghệ
https://www.reddit.com/r/selfhosted/comments/1qsdgop/selfhosted_llm_on_lowpower_hardware/
