Hướng dẫn chạy mô hình GLM-4.7 của Z.ai trên thiết bị cá nhân! GLM-4.7 cải tiến mạnh về code, agent & chat, đạt SOTA trên SWE-bench. Bản 355B param cần 400GB, nhưng bản GGUF 2-bit chỉ còn 134GB, tiết kiệm 75% dung lượng. Khám phá ngay!
#GLM47 #AI #LocalLLM #Zai #ModelAI #TríTuệNhânTạo #ChạyLocal

https://www.reddit.com/r/LocalLLaMA/comments/1ptttcm/how_to_run_the_glm47_model_locally_on_your_own/

Model bị kẹt mãi khi tải về mà không trả lời. Người dùng thử một số model trên AnythingLLaMA như Llama 3.2 3b và Ministral 3 3b đều bị treo ở bước tải về. Nguồn: Reddit r/LocalLLaMA #LocalLLaMA #AI #AnythingLLaMA #Côngnghệtươngtác #ModelAI #Llama3

https://www.reddit.com/r/LocalLLaMA/comments/1pnm88i/model_stuck_loading_indefinitely_without_answering/

Một nhân viên NVIDIA đã vô tình tải lên thư mục gốc của mô hình AI chưa công bố lên Hugging Face. Sự cố này tiết lộ thông tin nhạy cảm, ảnh hưởng đến dự án sắp tới của công ty. #NVIDIA #HuggingFace #RòRỉDữLiệu #ModelAI #SựCốCôngNghệ

https://www.reddit.com/r/LocalLLaMA/comments/1pkpxss/someone_from_nvidia_made_a_big_mistake_and/

Phần lớn các benchmark lập trình như SWE hiện tập trung vào Python. Liệu có benchmark nào đánh giá khả năng lập trình PHP (bao gồm PHP nguyên gốc và các framework)? Cảm ơn mọi người! #PHP #Benchmarks #AIProgramming #LapTrinh #ModelAI

https://www.reddit.com/r/singularity/comments/1pk9mej/coding_models_benchmarks_on_php/

Hàng loạt AI ngôn ngữ đang được thử nghiệm với Kimi K2 dẫn đầu (khiến minimax nhường 2,4% điểm) và hai mô hình Mistral mới MIỄN PHÍ! Kimi K2 nhanh hơn, Mistral dùng nhiều bước nhưng chưa vượt DeepSeek về hiệu năng. So sánh chi phí-độ chính xác cập nhật trên swebench.com.

#AI #MachineLearning #KimiK2 #Mistral #DeepSeek #TốiƯuChiPhí #NgônNgữTríTuệNhânTạo #ModelAI

---
*Independent evaluation shows Kimi K2 leads in efficiency, Mistral models free via API. Step limits impact performance. Data

Tính VRAM cần cho mô hình AI: **Memory = (Tham số × Byte mỗi tham số)**. Ví dụ 7B tham số: FP16 cần 14GB, INT8: 7GB, INT4: 3.5GB. Thêm 20% cho context/window. GPU 8-24GB phù hợp mô hình 7B, 40-80GB dùng 13B-34B. #AI #VRAM #MachineLearning #KhoaHocDuLieu #ModelAI

https://www.reddit.com/r/LocalLLaMA/comments/1piiozj/rule_of_thumb_or_calculator_for_determining_vram/

Một nhà phát triển đã tạo ra phiên bản "abliterated" của model AI Gemma 3 27B Instruct, loại bỏ các cơ chế từ chối an toàn bằng kỹ thuật bảo toàn chuẩn, đồng thời giữ nguyên khả năng suy luận. Model này chỉ dành cho mục đích nghiên cứu, khuyến cáo sử dụng có trách nhiệm.
#AI #LLM #Gemma #ModelAI #NghiênCứu #OpenSource

https://www.reddit.com/r/LocalLLaMA/comments/1p8onns/i_cooked_abliterated_gemma327bit_with/

https://companydata.tsujigawa.com/press-20250909-001/

model.ai株式会社(代表取締役:横内 琉人)は、本日、生成AIプラットフォーム「modelai(モデルエーアイ)」のメジャーアップデート Ver.2.0.0 を公開しました。今回のアップデートでは、作品の生成 → グッズ化 → EC販売 → 収益受取 までをシームレスにつなぎ、個人クリエイターから企業・ブランドまで幅広く活用できるIP支援プラットフォームへと進化しました。

■プレスリリース配信元-model.ai株式会社
https://companydata.tsujigawa.com/company/9011001166985/

#生成AI #modelai #自動グッズ化 #プレスリリース #PressRelease #企業情報

IP支援プラットフォームへ進化した生成AI「modelai」2.0

model.ai株式会社は生成AIアプリ「modelai」Ver.2.0.0を公開。創作から販売・還元までを高速化。

全国企業データベース-プレスリリース配信サービス