RT @ArtificialAnlys: Sub-32B Open-Weights-Modelle bieten nun Intelligenz auf GPT-5-Niveau, wobei Qwen3.5 27B (Reasoning) mit 42 Punkten GPT-5 (medium) erreicht und Gemma 4 31B (Reasoning) mit 39 Punkten GPT-5 (low) auf dem Artificial Analysis Intelligence Index erreicht. @AlibabaQwen's Qwen3.5 und @GoogleDeepMind's Gemma 4 sind die beiden kürzlich veröffentlichten Open-Weights-Modellfamilien, die die Sub-32B-Gesamtparameter-Modellklasse vorantreiben. Beide sind in verschiedenen Größen mit Reasoning- und Non-Reasoning-Varianten verfügbar und bieten nativen multimodalen Input. Zusammen repräsentieren sie den Stand der Technik der Open-Weights-Intelligenz bei dieser Parameteranzahl. Qwen3.5 27B erreicht eine höhere absolute Intelligenz auf dem Artificial Analysis Intelligence Index, während Gemma 4 31B token-effizienter ist. Obwohl diese Sub-32B-Modelle nun Intelligenz auf GPT-5-Niveau erreichen, unterscheidet sich die Zusammensetzung dieser Intelligenz. Beide Open-Weights-Modelle hinken im Vergleich zu GPT-5-Varianten bei Faktenwissen und der Vermeidung von Halluzinationen deutlich hinterher: AA-Omniscience-Werte von -42 (Qwen3.5 27B) und -45 (Gemma 4 31B) gegenüber -10 für GPT-5 (medium) und -10 für GPT-5 (low). Fortschritte haben die Open-Weights-Modelle vor allem bei der agentischen Leistung und dem kritischen Denken gemacht: Qwen3.5 27B übertrifft GPT-5 (medium) auf dem Artificial Analysis Agentic Index deutlich mit 55 gegenüber 46, und Gemma 4 31B führt bei TerminalBench Hard (36 % vs. 27 %) und HLE (23 % vs. 18 %) gegenüber GPT-5 (low). Sowohl Qwen3.5 27B als auch Gemma 4 31B passen in BF16…
mehr auf Arint.info
#ArtificialIntelligence #KI #LLM #MachineLearning #OpenWeights #arint_info
https://x.com/ArtificialAnlys/status/2043929874537296026#m