Thứ Ba, 16/12 từ 1-2pm PST, tham gia AMA với các nhà nghiên cứu AI2 (tác giả mô hình Olmo & Molmo mở toàn phần). Đặt câu hỏi ngay! #AI2 #Olmo #Molmo #NghiênCứuAI #MôHìnhMở #OpenModeling #AIResearch

https://www.reddit.com/r/LocalLLaMA/comments/1pniwfj/ai2_open_modeling_ama_ft_researchers_from_the/

Apriel-v1.6B-15B-Thinker đã được phát hành: mô hình mở nhỏ gọn (<40B tham số), tiết kiệm ~30% token so với bản 15B trước nhưng vẫn tồn tại nhược điểm. #AI #MachineLearning #MôHìnhMở #TechUpdate

https://www.reddit.com/r/singularity/comments/1pill55/aprielv16b15bthinker_a_small_open_weights_models/

Mô hình "mở" chứa nhiều thông tin sai lệch và la đảo. Hiệu suất thấp, giá cả không khác biệt, vấn đề bảo mật và quyền riêng tư không được đảm bảo. #MôHìnhMở #TríTuệNhânTạo #OpenSource #AI #TrìnhDuyệt #LừaĐảo #BảoMật #QuyềnRiêngTư #OpenScience

https://www.reddit.com/r/LocalLLaMA/comments/1oxhf5e/why_are_there_so_much_misinformation_and_lies/

Đang thử DeepSeek‑R1 trên Ollama + LangChain cho các tác vụ nặng suy luận (phân tích hợp đồng, hỏi đáp PDF). Mô hình mở giúp triển khai bảo mật, suy luận gần o1 nhưng đa vòng tăng độ trễ. Ưu: chi phí/hiệu năng tốt; Nhược: cần tinh chỉnh cửa sổ ngữ cảnh, mức quant; không hỗ trợ function calling, phải chuyển sang DeepSeek‑V3 hoặc OpenAI cho công cụ. Ai có kinh nghiệm tối ưu quant hoá để tăng tốc mà không giảm chất lượng? #DeepSeek #Ollama #LangChain #AI #NLP #TríTuệNhânTạo #MôHìnhMở #AIlocal

http