CUDA & ROCm thường được ưa thích để chạy mô hình AI nhanh, nhưng với card AMD RX 6600 XT thiếu hỗ trợ ROCm, việc chạy Llama 3.2-3B-Instruct-Q4_K_M qua GGUF gặp khó. Hiện tại chỉ có thể dùng CPU i5-10400. Bạn có cách nào khác không? 🤔 #AI #AMD #Llama #GPU #TechTips #TríTuệNhânTạo #MáyTínhCáNhân

https://www.reddit.com/r/LocalLLaMA/comments/1odzx7g/trying_to_run_gguf_with_amd_radeon_rx6600xt/