Mistral công bố bộ mô hình Ministral 3: các mô hình ngôn ngữ dày 3 B, 8 B và 14 B, mỗi kích thước có 3 phiên bản (base, instruction, reasoning). Được đào tạo qua Cascade Distillation – kỹ thuật cắt tỉa và distillation lặp lại – và hỗ trợ hiểu ảnh, phát hành dưới giấy phép Apache 2.0. #AI #NLP #Mistral #Ministral3 #MachineLearning #TríTuệNhânTạo #XửLýNgônNgữ #MôHìnhNgônNgữ

https://www.reddit.com/r/LocalLLaMA/comments/1qdbxei/mistral_releases_ministral_3_paper/

Ministral-3-14B-Reasoning: High Intelligence on Low VRAM – A Benchmark-Comparison
Ministral-3-14B-Reasoning-2512 đang đứng top 6 trong bảng so sánh với 10 mô hình ngôn ngữ lớn:
- LiveCodeBench: 64.6%
- GPQA: 71.2%
- AIME 2024: 89.8%
- AIME 2025: 85.0%
#trí tuệ nhân tạo #mô hình ngôn ngữ #benchmark #Ministral3 #AI #VRAM

https://www.reddit.com/r/LocalLLaMA/comments/1q8b82f/ministral314breasoning_high_intelligence_on_low/

chatllm.cpp cập nhật hỗ trợ mô hình Ministral-3 & tích hợp llama.cpp WebUI, nâng cao trải nghiệm AI cục bộ. #chatllmcpp #Ministral3 #AI #Lập_trình #LocalLLaMA

https://www.reddit.com/r/LocalLLaMA/comments/1ph95i2/chatllmcpp_adds_support_of_ministral3_llamacpp/