Tại sao Ollama lại để mặc định VRAM cố định và khó thay đổi? Việc không tự động dò lượng VRAM có sẵn khiến khả năng xử lý của mô hình bị hạn chế (4k thay vì 256k). Nhiều người dùng sẽ bỏ qua cài đặt này, dẫn đến kết quả tệ hại dù hệ thống có 48GB RAM. #AI #MôHình #Ollama #VRAM #TechIssue

https://i.redd.it/dvhk25h286gg1.png

Mô hình AI tiên tiến đang tự đánh giá lẫn nhau: 10 mô hình trả lời cùng một câu đố logic (lịch 5 người, 5 ngày, 9 ràng buộc) và 8 mô hình khác chấm điểm ẩn danh. Kết quả cho thấy Olmo 32B vượt qua các mô hình Claude flagship, dù có độ lệch cao (±4.12). 50/90 đánh giá đạt chuẩn. Ai đang chạy Olmo 3.1 locally và dùng quantization nào? #AI #MachineLearning #AIVietnam #Olmo #Claude #NghiênCứu #MôHình #ĐánhGiá

https://www.reddit.com/r/LocalLLaMA/comments/1qisu0u/olmo_31_32b_think_beats_claude_opus_4

Sau khi thử nhiều mô hình MoE ≤30B mà gặp lỗi, cuối cùng GLM 4.7 Flash chứng tỏ ổn định trong môi trường agent. Trên Opencode chạy hơn 30 phút, tạo hàng trăm nghìn token, sao chép repo, thực thi lệnh, chỉnh sửa và commit mà không lỗi. Mong chờ GGUF để chạy cục bộ. #AI #ML #MoE #GLM4.7 #OpenSource #CôngNghệ #TríTuệNhânTạo #MôHình

https://www.reddit.com/r/LocalLLaMA/comments/1qhii5v/my_gpu_poor_comrades_glm_47_flash_is_your_local/

🚀 GFN v2.5.0 (Geodesic Flow Networks) đã chứng minh khả năng suy luận O(1) bộ nhớ và mở rộng độ dài lên tới 500× (từ 20 → 10.000 token) mà chỉ dùng ~60 MB VRAM. So với Transformer, GFN giảm 234× chi phí bộ nhớ và đạt 100 % độ chính xác trên task Binary Parity, cho thấy khả năng tổng quát hoá không giới hạn. Cập nhật tích hợp RiemannianAdam, Leapfrog integration và bảo toàn năng lượng hệ. #AI #MachineLearning #GFN #NLP #DeepLearning #CôngNghệ #BộNhớ #MôHình #SequenceModeling

https://www.reddit.

HF nên có hệ thống upvote/downvote hoặc công cụ thống kê việc sử dụng mô hình để lọc bỏ các mô hình lỗi thời, bỏang hoặc không còn phù hợp, giúp người dùng nhanh chóng tìm kiếm các mô hình chất lượng. #HuggingFace #AI #MachineLearning #MôHình #CôngNghệ #AIVietnam

https://www.reddit.com/r/LocalLLaMA/comments/1qbrgze/idea_hf_should_have_upvodedownvote_or_inference/

🤖 Đang chạy MCP với mô hình LLM cục bộ? Nhiều người gặp MCP hoạt động không ổn: cần quy tắc chặt chẽ, giả định mạng/đăng nhập không hợp, lỗi im lặng, workflow đa bước dễ gãy. Tác giả đã tổng hợp danh sách MCP dùng được, nơi thường lỗi & cách cải thiện. Bạn có MCP nào ổn với mô hình local? Chia sẻ kinh nghiệm nhé!
#AI #LLM #LocalModels #MCP #Developer #TríTuệNhânTạo #MôHình #OpenSource

https://www.reddit.com/r/LocalLLaMA/comments/1q14c6r/anyone_else_seeing_mcps_behave_unpredictably_with/

SK Hynix vừa ra mắt mô hình A.X‑K1 trên Hugging Face, với 519 tỷ tham số và 33 tỷ active MoE, mở rộng khả năng xử lý AI quy mô lớn. #AI #ML #HuggingFace #SKHynix #MôHình #CôngNghệ

https://www.reddit.com/r/LocalLLaMA/comments/1q0kvo5/sktaxk1_hugging_face/

TheDrummer models được "thuần hóa" để giảm kiểm duyệt. 2 phiên bản: Magidonia-24B-v4.3 & Cydonia-24B-v4.3. Biến thể 1 giảm từ chối, biến thể 2 duy trì hiệu năng. #AILLM #MastodonAI #AI #MôHình

https://www.reddit.com/r/LocalLLaMA/comments/1prm2tq/thedrummer_models_meet_heretic/

Công cụ tạo mockup PostSpark vừa thêm tính năng mới: hỗ trợ video, tự động tạo background và keyframe animation! Giúp biến ảnh chụp màn hình thành video quảng cáo chất lượng cao trong giây lát. Thử ngay!
#mockup #design #video #animation #thietke #mohinh

https://www.reddit.com/r/SideProject/comments/1petypx/i_added_animations_and_autogenerated_backgrounds/

Framework mới cho phép training các mô hình Transformer lớn (500M-300B params) với khả năng tự động phục hồi sau các sự cố như gradient explosion, OOM và expert collapse. Có MoE/MoD và monitoring tự động. Demo trên Colab.

#AI #ML #DeepLearning #MachineLearning #trituenhantao #hocmay #môhình

https://www.reddit.com/r/LocalLLaMA/comments/1p9ythm/built_a_production_transformer_framework_with/