🔬 Nghiên cứu mới đề xuất Scalable Power Sampling – phương pháp tăng cường suy luận cho LLM mà không cần huấn luyện lại hay bộ kiểm tra. Dựa trên làm sắc nét phân phối năng lượng, thay thế RL và MCMC, giảm thời gian suy luận >10x và đạt hiệu năng tương đương hoặc vượt GRPO một‑shot trên các tác vụ toán, QA, code. #AI #LLM #MachineLearning #DeepLearning #NghiênCứu #AI_VN #LLM_VN

https://www.reddit.com/r/LocalLLaMA/comments/1qsaath/scalable_power_sampling_unlocking_efficient/

Người dùng đang tìm cách chạy llama.cpp với Vulkan trên GPU Mali-G57 MC2 (Samsung A15, chip Helio G99) qua Termux. Mặc dù đã khắc phục lỗi và nhận diện được GPU, nhưng lại gặp lỗi "Segmentation fault" khi tải mô hình Qwen3-0.6B. Ai có kinh nghiệm với setup này không?
#llama_cpp #Vulkan #MaliGPU #Termux #Android #AI #LLM #Troubleshooting
#llama_cpp_vn #Vulkan_vn #MaliGPU_vn #Termux_vn #Android_vn #AI_vn #LLM_vn #KhacPhucSuCo

https://www.reddit.com/r/LocalLLaMA/comments/1pe3sme/had_anyone_tried_t