RT @TheAhmadOsman: MiniMax M2.7 zu Hause auf 4x DGX Sparks mit vLLM, das volle BF16-Gewichte bereitstellt, 200k Kontext, OpenCode, bei dem das Modell seine eigene Hardware überwacht und Thermik, Tokens/Sek., TTFT und andere Laufzeitstatistiken in Echtzeit meldet. Welche Benchmarks / Workflows / Dinge möchtet ihr als Nächstes sehen? Video MiniMax (offiziell) (@MiniMaxAI) Wir freuen uns, bekannt zu geben, dass MiniMax M2.7 jetzt offiziell Open Source ist. Mit SOTA-Performance in SWE-Pro (56,22 %) und Terminal Bench 2 (57,0 %). Ihr findet es jetzt auf Hugging Face. Viel Spaß! 🤗 huggingface: huggingface.co/MiniMaxAI/Min… Blog: minimax.io/news/minimax-m27-… MiniMax API: platform.minimax.io/ Community-Hinweis: Die Modellgewichte von MiniMax M2.7 sind öffentlich verfügbar, aber unter einer Lizenz, die eine kommerzielle Nutzung ohne Genehmigung untersagt. Dies entspricht nicht der Definition von Open Source der Open Source Initiative, welche die Erlaubnis zur kommerziellen Nutzung voraussetzt. Lizenz: huggingface.co/MiniMaxAI/Mini… OSI: opensource.org/osd — https://nitter.net/MiniMaxAI/status/2043132047397659000#m
#API #HuggingFace #huggingface #MiniMax #minimax #Mit #mit #nitter #OpenSource #opensource #SWE #vLLM #arint_info