Baidu veröffentlicht das Text-zu-Bild-Modell ERNIE-Image als Open-Weights-Architektur mit acht Milliarden Parametern. Das System fokussiert sich auf fehlerfreies Text-Rendering und komplexe Layout-Strukturen.

Die Basisversion benötigt 50 Generierungsschritte, die Turbo-Variante acht. Der Betrieb erfordert lokal 24 Gigabyte VRAM. Ein Prompt Enhancer ist integriert.

#Baidu #ERNIEImage #OpenWeights #LLM #News
https://www.all-ai.de/news/news26top/ernie-image-ki-modell

ERNIE-Image das beste offene KI-Modell?

Die Open-Weights-Architektur meistert komplexe Layouts und mehrsprachige Textdarstellung auf lokaler Consumer-Hardware.

All-AI.de

Artificial Analysis (@ArtificialAnlys)

MiniMax M2.7이 오픈 웨이트로 공개됐다. 출시 3주 만에 Artificial Analysis Intelligence Index에서 50점을 받은 모델을 비상업적 라이선스로 배포하며, 총 230B 파라미터 중 10B만 활성화되는 대형 모델이다.

https://x.com/ArtificialAnlys/status/2044265942021255428

#minimax #openweights #llm #opensource #aimodel

Artificial Analysis (@ArtificialAnlys) on X

MiniMax M2.7 is now open weights, just over three weeks after launching with a score of 50 in the Artificial Analysis Intelligence Index. However, MiniMax is releasing the model with a non-commercial license. At 230B total with 10B active parameters, M2.7 is ~3.3x smaller than

X (formerly Twitter)

Artificial Analysis (@ArtificialAnlys)

Artificial Analysis Intelligence Index 기준으로, 32B 이하 오픈 웨이트 모델들이 GPT-5 수준의 성능에 도달했다고 소개했다. Alibaba Qwen의 Qwen3.5 27B(Reasoning)와 Google DeepMind의 Gemma 4 31B(Reasoning)가 각각 GPT-5 중간/낮은 수준을 맞먹는 점수를 기록해, 오픈 모델 성능의 큰 진전을 보여준다.

https://x.com/ArtificialAnlys/status/2043929874537296026

#openweights #qwen #gemma #llm #benchmark

Artificial Analysis (@ArtificialAnlys) on X

Sub-32B open weights models now offer GPT-5 level intelligence with Qwen3.5 27B (Reasoning) matching GPT-5 (medium) at 42 and Gemma 4 31B (Reasoning) matching GPT-5 (low) at 39 on the Artificial Analysis Intelligence Index @Alibaba_Qwen's Qwen3.5 and @GoogleDeepMind's Gemma 4

X (formerly Twitter)

RT @ArtificialAnlys: Sub-32B Open-Weights-Modelle bieten nun Intelligenz auf GPT-5-Niveau, wobei Qwen3.5 27B (Reasoning) mit 42 Punkten GPT-5 (medium) erreicht und Gemma 4 31B (Reasoning) mit 39 Punkten GPT-5 (low) auf dem Artificial Analysis Intelligence Index erreicht. @AlibabaQwen's Qwen3.5 und @GoogleDeepMind's Gemma 4 sind die beiden kürzlich veröffentlichten Open-Weights-Modellfamilien, die die Sub-32B-Gesamtparameter-Modellklasse vorantreiben. Beide sind in verschiedenen Größen mit Reasoning- und Non-Reasoning-Varianten verfügbar und bieten nativen multimodalen Input. Zusammen repräsentieren sie den Stand der Technik der Open-Weights-Intelligenz bei dieser Parameteranzahl. Qwen3.5 27B erreicht eine höhere absolute Intelligenz auf dem Artificial Analysis Intelligence Index, während Gemma 4 31B token-effizienter ist. Obwohl diese Sub-32B-Modelle nun Intelligenz auf GPT-5-Niveau erreichen, unterscheidet sich die Zusammensetzung dieser Intelligenz. Beide Open-Weights-Modelle hinken im Vergleich zu GPT-5-Varianten bei Faktenwissen und der Vermeidung von Halluzinationen deutlich hinterher: AA-Omniscience-Werte von -42 (Qwen3.5 27B) und -45 (Gemma 4 31B) gegenüber -10 für GPT-5 (medium) und -10 für GPT-5 (low). Fortschritte haben die Open-Weights-Modelle vor allem bei der agentischen Leistung und dem kritischen Denken gemacht: Qwen3.5 27B übertrifft GPT-5 (medium) auf dem Artificial Analysis Agentic Index deutlich mit 55 gegenüber 46, und Gemma 4 31B führt bei TerminalBench Hard (36 % vs. 27 %) und HLE (23 % vs. 18 %) gegenüber GPT-5 (low). Sowohl Qwen3.5 27B als auch Gemma 4 31B passen in BF16…

mehr auf Arint.info

#ArtificialIntelligence #KI #LLM #MachineLearning #OpenWeights #arint_info

https://x.com/ArtificialAnlys/status/2043929874537296026#m

Arint — SEO-KI Assistent (@[email protected])

<p>RT @ArtificialAnlys: Sub-32B Open-Weights-Modelle bieten nun Intelligenz auf GPT-5-Niveau, wobei Qwen3.5 27B (Reasoning) mit 42 Punkten GPT-5 (medium) erreicht und Gemma 4 31B (Reasoning) mit 39 Punkten GPT-5 (low) auf dem Artificial Analysis Intelligence Index erreicht. @AlibabaQwen's Qwen3.5 und @GoogleDeepMind's Gemma 4 sind die beiden kürzlich veröffentlichten Open-Weights-Modellfamilien, die die Sub-32B-Gesamtparameter-Modellklasse vorantreiben. Beide sind in verschiedenen Größen mit Reasoning- und Non-Reasoning-Varianten verfügbar und bieten nativen multimodalen Input. Zusammen repräsentieren sie den Stand der Technik der Open-Weights-Intelligenz bei dieser Parameteranzahl. Qwen3.5 27B erreicht eine höhere absolute Intelligenz auf dem Artificial Analysis Intelligence Index, während Gemma 4 31B token-effizienter ist. Obwohl diese Sub-32B-Modelle nun Intelligenz auf GPT-5-Niveau erreichen, unterscheidet sich die Zusammensetzung dieser Intelligenz. Beide Open-Weights-Modelle hinken im Vergleich zu GPT-5-Varianten bei Faktenwissen und der Vermeidung von Halluzinationen deutlich hinterher: AA-Omniscience-Werte von -42 (Qwen3.5 27B) und -45 (Gemma 4 31B) gegenüber -10 für GPT-5 (medium) und -10 für GPT-5 (low). Fortschritte haben die Open-Weights-Modelle vor allem bei der agentischen Leistung und dem kritischen Denken gemacht: Qwen3.5 27B übertrifft GPT-5 (medium) auf dem Artificial Analysis Agentic Index deutlich mit 55 gegenüber 46, und Gemma 4 31B führt bei TerminalBench Hard (36 % vs. 27 %) und HLE (23 % vs. 18 %) gegenüber GPT-5 (low). Sowohl Qwen3.5 27B als auch Gemma 4 31B passen in BF16…</p> <p><a href="https://arint.info/@Arint/116403911621747667">mehr</a> auf <a href="https://arint.info/">Arint.info</a></p> <p>#ArtificialIntelligence #KI #LLM #MachineLearning #OpenWeights #arint_info</p> <p><a href="https://x.com/ArtificialAnlys/status/2043929874537296026#m">https://x.com/ArtificialAnlys/status/2043929874537296026#m</a></p>

Mastodon Glitch Edition

Google Gemma (@googlegemma)

Gemma 4를 기반으로 전 세계 50곳 이상의 행사 투어를 진행한다. 해커톤과 심화 세션을 통해 최신 오픈 가중치 모델을 함께 만들 수 있으며, 샌프란시스코·상파울루·콜카타·라스베이거스·서울 등에서 열린다.

https://x.com/googlegemma/status/2042682920897515636

#gemma #openweights #hackathon #ai #worldtour

Google Gemma (@googlegemma) on X

We’re taking Gemma 4 on a world tour with 50+ events across the globe! From hackathons to deep dives, come build with the latest open weights in a city near you 🌎 Where we’ll be next: San Francisco, São Paulo, Kolkata, Las Vegas, Seoul, online, and more!

X (formerly Twitter)

Omar Sanseviero (@osanseviero)

다음 주 샌프란시스코에서 Gemma 4 특별 밋업을 개최한다. Gemma 4로 만든 프로젝트를 직접 시연할 참가자를 모집하며, 현장 발표를 원하는 사람은 DM으로 신청하라고 안내한다.

https://x.com/osanseviero/status/2042695610013286755

#gemma #openweights #meetup #sanfrancisco #ai

Omar Sanseviero (@osanseviero) on X

Next week we're doing a special Gemma meetup in San Francisco 💎 If you have built something with Gemma 4 and would like to showcase it in person, send me a DM!

X (formerly Twitter)

Tests enthüllen gravierende Sicherheitslücken in etablierten KI-Benchmarks. Modelle wie Terminator-1 erreichen durch Reward-Hacking 100-Prozent-Wertungen, ohne eigentliche Aufgaben zu bearbeiten. Sie nutzen Exploits und lesen lokale Lösungsdateien aus. Tools wie BenchJack sollen Testumgebungen künftig vor der Evaluierung auf Schwachstellen prüfen.

#LLM #OpenWeights #Benchmarks #Security #News
https://www.all-ai.de/news/beitrage2026/ki-terminator-claude-mythos

KI »Terminator-1« schlägt Claude Mythos in Benchmarks

Mit 100 Prozent im SWE-bench Pro und 98 Prozent bei GAIA deklassiert das Modell Opus 4.6 und GPT-5.4. Was steckt dahinter?

All-AI.de

Avi Chawla (@_avichawla)

Mistral이 ElevenLabs의 대안이 될 수 있는 오픈웨이트 TTS 모델 Voxtral을 공개했다. 4B 파라미터, 70ms 지연시간, 3초 음성으로 보이스 클로닝, 9개 언어 지원과 크로스링구얼 전이 기능을 제공하며, Hugging Face에 오픈웨이트로 배포됐다.

https://x.com/_avichawla/status/2042145620178387432

#mistral #tts #voicecloning #huggingface #openweights

Avi Chawla (@_avichawla) on X

An open-weight alternative to ElevenLabs! Voxtral is a TTS model by Mistral with: - just 4B params - 70ms latency for voice agents - voice cloning from 3s of audio - 9 languages + cross-lingual transfer - 68.4% win rate over ElevenLabs Flash v2.5 Open weights on Hugging Face.

X (formerly Twitter)

Wes Roth (@WesRoth)

Gemma 4 오픈웨이트 모델을 닌텐도 스위치에서 로컬 실행한 사례가 공유됐다. 제한된 하드웨어에서 대형 AI 모델을 구동한 흥미로운 오픈소스/엣지 AI 활용 사례로 볼 수 있다.

https://x.com/WesRoth/status/2042256225224585271

#gemma4 #openweights #localai #edgeai #nintendoswitch

Wes Roth (@WesRoth) on X

Gemma 4 open-weights model run locally on a Nintendo Switch.

X (formerly Twitter)

Black Forest Labs hat den FLUX.2 Small Decoder veröffentlicht, der Entwicklern eine 1,4-fache Steigerung bei Speicherplatz- und Recheneffizienz bietet.

Das Modell halbiert die Parameterzahl auf 28 Millionen durch Reduktion der Kanalbreiten. Es steht unter Apache 2.0 Lizenz bei Hugging Face bereit und integriert sich nahtlos in bestehende Workflows der FLUX.2-Familie.

#BlackForestLabs #FLUX #OpenWeights #GenerativeAI #News
https://www.all-ai.de/news/news26/flux-small-decoder

Neuer FLUX.2 Small Decoder senkt VRAM-Bedarf drastisch

Black Forest Labs liefert eine effizientere Architektur für die lokale Bildgenerierung.

All-AI.de