Tổng hợp một số khóa học đại học công khai về AI Agents từ Stanford, UCSD, và Berkeley. Cơ hội tuyệt vời để học hỏi và cập nhật kiến thức chuyên sâu!
#AI #AI_Agent #HocMay #Tech

https://www.reddit.com/r/LocalLLaMA/comments/1q4j6qr/several_publicly_available_university_courses/

Tỷ lệ tham số hoạt động trên các mô hình MoE lớn: Kimi K2 (3.2%), GPT OSS 120B (4.4%), Qwen3 Next 80B (3.8%). Tỷ lệ thấp cho thấy xu hướng ưu tiên kiến thức đa dạng thay vì trí tuệ tập trung. Một số mô hình cũ như Grok 2 đạt 42.6% – nổi bật về tham số hoạt động. #AI #LLM #Moe #Kimi #Qwen3 #Grok2 #AI #MoE #ThamSoHoatDong #HocMay

https://www.reddit.com/r/LocalLLaMA/comments/1q401ka/ratios_of_active_parameters_to_total_parameters/

"🌈 Slope (độ dốc) là khái niệm toán học cơ bản trong Machine Learning!
- Mô tả sự thay đổi của Y khi X biến thiên:
✔️ Dốc dương: X tăng → Y tăng
✔️ Dốc âm: X tăng → Y giảm
✔️ Độ dốc lớn = đường dốc, độ dốc nhỏ = đường thoải
- Trong ML: Đo lường mức độ ảnh hưởng của đặc trưng đầu vào (X) tới kết quả (Y)
- Minh họa bằng tìm đường thẳng tối ưu: y = mx + b qua dữ liệu thực tế

#MachineLearning #HocMay #Mathematics #ToanHoc #DataScience #Slope #AI #LinearRegression"

https://dev.

Alibaba công bố Qwen-Image-2512 – mô hình text-to-image mã nguồn mở mạnh nhất hiện nay, ngang tầm với Gemini 3 Pro và Imagen 4. Đạt điểm cao trên AI Arena nhờ cải tiến độ chân thực da, tóc, vật liệu phức tạp và bố cục văn bản. Trọng số mô hình được công khai theo giấy phép Apache 2.0, sẵn sàng trên Hugging Face và ModelScope.
#AI #MachHoc #QwenImage2512 #Alibaba #TextToImage #AITrending #AI #HocMay #Alibaba #QwenImage2512

https://www.reddit.com/r/singularity/comments/1q0a3pz/alibaba_drops_qwe

Kỹ thuật mới Test-Time Training cho phép mô hình AI tự học khi hoạt động, giúp cải thiện hiệu quả trên dữ liệu lạ mà không cần huấn luyện lại.

#AI #MachineLearning #TestTimeTraining #Research #HocMay #CongNghe

https://i.redd.it/x11g4ceqybag1.png

Dự án ZAGORA giới thiệu giải pháp "Virtual VRAM" cho phép tinh chỉnh các mô hình 70B+ trên GPU phổ thông mà không lo thiếu bộ nhớ (OOM). Nền tảng này gom các GPU phân tán thành một cụm duy nhất. Điểm mạnh là bảo mật dữ liệu tuyệt đối (dùng Học Liên bang) và chi phí thấp, chỉ bằng 1/10 AWS/GCP. Đang mở thử nghiệm Beta kín.
#LLM #AI #VRAM #FederatedLearning #ZAGORA #HocMay #TinhChinhMoHinh #GPU #BaoMat

https://www.reddit.com/r/LocalLLaMA/comments/1pyk5qh/project_i_built_a_virtual_vram_swarm_to_fi

Đang tìm người dùng hệ thống đại lý đa (3+ agents) để cải thiện công cụ orchestration. Nếu bạn đang vận hành hệ thống phức tạp qua nhiều framework, vui lòng inbox/cmt để tham gia buổi trò chuyện 15 phút. Không quảng cáo, chỉ tìm hiểu. #AI #MachineLearning #HocMay #CongNgheAI #CongCuPhanTich #DevTools

https://www.reddit.com/r/LocalLLaMA/comments/1py1215/looking_for_people_running_complex_multiagent/

RTX 5080: Những mô hình LLM nào đáng dùng? Người dùng chia sẻ đã test Qwen 8/14B, NEmotron3 14B, Mistral Reasoning 14B, GPT OSS 20B. Gợi ý mô hình hỗ trợ gọi tool và có window 32K+. #AI #LLM #RTX5080 #HocMay #CongNghe

https://www.reddit.com/r/LocalLLaMA/comments/1pxv4tb/llms_for_local_use_on_rtx5080/

Dự án RAG nhỏ với 16GB VRAM: Người dùng muốn tự lưu trữ mô hình AI để xử lý tài liệu Google trên card đồ họa 16GB, đặt câu hỏi về giới hạn và gợi ý mô hình nhỏ.
#RAG #VRAM #AI #HocMay #CongNgheThôngTin #LocalLLaMA #MôHìnhAI

https://www.reddit.com/r/LocalLLaMA/comments/1pvv279/small_rag_project_with_16_gb_vram/

Có thể dạy AI như con người? Một ý tưởng đang lan truyền: Tạo môi trường ảo, dạy AI về vật lý, hành động và ngôn ngữ qua trải nghiệm thực tế. Mặc dù cần nhiều thời gian và công nghệ tiên tiến, câu hỏi liệu có thể nuôi dưỡng AI đúng nghĩa vẫn còn nhiều tranh cãi. #AI #HocMay #CongNghe #TronGiangVien #AIEducation #TechVietnam #TríTuệNhânTạo #Innovation #VirtualLearning

https://www.reddit.com/r/LocalLLaMA/comments/1pvk7qi/is_it_possible_to_raise_an_ai/