Hỗ trợ backend-agnostic cho Kimi-Linear-48B-A3B trên llama.cpp, chạy trên mọi nền tảng. Dùng phiên bản ggml, không giới hạn CPU/CUDA. Tải GGUF tại: HuggingFace và mã nguồn từ GitHub nhánh Kimi-Linear. Báo lỗi nếu gặp sự cố. Cảm ơn cacaview, Aaryan-Kapoor, pwilkin đã đóng góp. #llama.cpp #KimiLinear #GGUF #LocalLLM #AI #llama.cpp #KimiLinear #GGUF #LocalLLM #TríTuệNhânTạo
https://www.reddit.com/r/LocalLLaMA/comments/1q586jv/backend_agnostic_llamacpp_support_for/

