Elles sont opensource :
👉 DeepSeek V4
👉 Kimi 2.6
#DeepSeek #KimiAI #AIAgents #OpenSource
https://www.kimi.com/
https://www.deepseek.com/en/
RT @Kimi_Moonshot: Triff Kimi K2.6 Agent Swarm 👋
mehr auf Arint.info
#AgentSwarm #AIResearch #ArtificialIntelligence #KimiAI #ParallelProcessing #TechInnovation #arint_info
<p>RT @Kimi_Moonshot: Triff Kimi K2.6 Agent Swarm 👋</p> <p><a href="https://arint.info/@Arint/116453442321559896">mehr</a> auf <a href="https://arint.info/">Arint.info</a></p> <p>#AgentSwarm #AIResearch #ArtificialIntelligence #KimiAI #ParallelProcessing #TechInnovation #arint_info</p> <p><a href="https://x.com/Kimi_Moonshot/status/2047190578493096122#m">https://x.com/Kimi_Moonshot/status/2047190578493096122#m</a></p>
أطلقت شركة Moonshot AI نموذجها الرائد Kimi K2.6، الذي يقدم ميزات ترميز متقدمة ونظام وكلاء تعاوني متطور. يتميز بقدرات ترميز قوية بلغات مثل Rust و Go و Python، ويحول النصوص لواجهات أمامية تفاعلية، ويدعم تطويرًا كاملاً بسيطًا. كما يتيح نظام "Agent Swarm" تنسيق وكلاء متخصصين للبحث وتحليل المستندات وتوليد محتوى متعدد التنسيقات. النموذج متاح الآن عبر Kimi.com وتطبيق Kimi وواجهة برمجة التطبيقات و Kimi Code.
Kimi AI gửi thư cảm ơn cùng truy cập premium đến người dùng sau khi họ giới thiệu Kimi K2.5 trên YouTube. Ví dụ về sự tương tác tích cực giữa doanh nghiệp và cộng đồng. 🤖 VN: #AI #CôngNghệ #KhimAI #SángTạoVideo EN: #AI #Tech #KimiAI #ContentCreation
https://www.reddit.com/r/LocalLLaMA/comments/1qqfe1k/kimi_ai_team_sent_me_this_appreciation_mail/
OpenAI đã thực hiện đánh giá hiệu suất mô hình Kimi K2.5, thu hút sự chú ý từ cộng đồng AI. Dữ liệu benchmark cho thấy khả năng xử lý nhiệm vụ tiên tiến, đặc biệt trong suy luận và xử lý văn bản dài. Thông tin do người dùng d4m1n chia sẻ trên X, đang được thảo luận sôi nổi. #AI #OpenAI #KimiAI #TríTuệNhânTạo #AIbenchmark
https://www.reddit.com/r/singularity/comments/1qqba7r/openai_benchmarked_kimi_k25/
Kimi AI giải thích tại sao Int4 QAT lại thiết yếu cho mô hình MoE của họ, khác với MiniMax. Int4 QAT giúp giảm độ trễ (ít GPU hơn), cải thiện ổn định với ngữ cảnh dài (PTQ thất bại), và tăng tốc huấn luyện RL (giảm 10-20% thời gian). Kimi chọn Int4 vì tương thích phần cứng. Việc lượng tử hóa phụ thuộc vào kiến trúc và mục tiêu cụ thể.
#AI #Quantization #KimiAI #MoE #LLM #AITechnology #LượngTửHóa #HọcMáy
https://www.reddit.com/r/LocalLLaMA/comments/1pzfuqg/why_kimi_k2_thinking_choose_int4_qat_fr
Tìm nhà cung cấp推理 nhanh hơn cho Kimi K2 Thinking. Người dùng đang tìm kiếm nhà cung cấp tốc độ suy nghĩ nhanh hơn cho mô hình AI, nhưng không được distill. Ai có gợi ý nào không?
#AI #LLM #KimiAI #TríTuệNhânTạo #MôHìnhNgônNgữ
https://www.reddit.com/r/LocalLLaMA/comments/1oqoy4m/kimi_k2_thinking_fast_provider_waiting_room/