Arcee AI | Arcee Debuts Trinity Mini, Expanding Its U.S.-Built Model Line

Introducing Trinity Mini, a compact MoE model trained end-to-end in the U.S., offering open weights, strong reasoning, and full control for developers.

Dàn tensor với MoE, MXFP4 4 bits posibilität! 🌟 Noctrex chia sẻ mô hình-immun số chuẩn hóa trên HuggingFace – rất hiệu quả trong tiếtelay. Th suivants: https://huggingface.co/noctrex (hãy thử!).
#AI #MachineLearning #Quantization #MXFP4 #MoEModel #TinhHoaAI #MôHìnhTr ś/QuyDinh #PhépTinhTómTắt

https://www.reddit.com/r/LocalLLaMA/comments/1oav3r1/quantized_some_moe_models_with_mxfp4/

noctrex (noctrex)

User profile of noctrex on Hugging Face

🌟 Hỗ trợ LM Studio + MoE Model: Bật một cài đặt giúp sử dụng CPU ít VRAM vẫn đạt độ dài context lớn với tốc độ 20 tokens/giây. Bạn đang cần một giải pháp hiệu năng cao không? 👉 Thử việc này nhé! #AI #LMStudio #MoEModel #Prôgramming #H hỗ trợ AI #Tối ưu VRAM

https://www.reddit.com/r/LocalLLaMA/comments/1o6dnzc/in_lm_studio_moe_model_if_you_enable_this_setting/