EyeingAI (@EyeingAI)

Notion은 보통 대규모 적용에 신중한데, 만약 Notion이 MiniMax AI의 M2.5를 커스텀 에이전트용으로 사용한다면 이는 해당 오픈-웨이트 모델이 실무 워크플로우 트래픽을 처리할 만큼 빠르고 비용 효율적이라는 신뢰의 표시로 해석된다는 내용입니다. 오픈-웨이트 모델이 실제 부하에서 신뢰받기 시작했다는 점을 강조합니다.

https://x.com/EyeingAI/status/2029446050482929764

#notion #minimax_ai #m2_5 #openweight #agents

EyeingAI (@EyeingAI) on X

This is big. @NotionHQ doesn’t plug in a model unless it makes sense at scale. If they’re using @MiniMax_AI M2.5 for custom agents, that’s basically saying it’s fast enough and cheap enough to handle real workflow traffic. Open-weight getting trusted for that kind of load is

X (formerly Twitter)

Python Trending (@pythontrending)

gpt-oss는 OpenAI에서 공개 가중치로 제공하는 언어모델 프로젝트로, 120B와 20B 두 가지 오픈-웨이트 모델(예: gpt-oss-120b, gpt-oss-20b)을 포함한다고 소개됨. 오픈 웨이트 모델 출시는 커뮤니티 기반 연구·응용 확장에 중요한 의미를 가짐.

https://x.com/pythontrending/status/2029150901940719972

#gptoss #openai #openweight #opensource #languagemodels

Python Trending 🇺🇦 (@pythontrending) on X

gpt-oss - 120b and gpt-oss-20b are two open-weight language models by OpenAI https://t.co/9P4PDeljog

X (formerly Twitter)

MiniMax (official) (@MiniMax_AI)

M2.5 모델이 Weights & Biases의 W&B Inference에 라이브로 배포되었다고 발표됨. 오픈 웨이트, 고처리량, 프로덕션 준비 완료를 강조하며 W&B 플랫폼에서 바로 시도해볼 수 있음. 모델 배포·추론 파이프라인 관점에서 개발자에게 유의미한 업데이트.

https://x.com/MiniMax_AI/status/2028605558006391186

#m2.5 #wandb #inference #openweight #llm

MiniMax (official) (@MiniMax_AI) on X

M2.5 is now live on W&B Inference. Open-weight. High-throughput. Production-ready. Good models benchmark well. Great models ship. Try it in @wandb.

X (formerly Twitter)

Qwen 3.5 Small veröffentlicht: Starke Leistung bei wenig Speicherbedarf.

Alibaba bringt vier Modelle von 0.8B bis 9B als Open-Weight. Das 9B-Modell schlägt gpt-oss-120b im Logik-Benchmark GPQA Diamond mit 81,7 Punkten.

Die Modelle laufen lokal ab 2 GB VRAM und verarbeiten nativ Text, Bild und Video. Externe Cloud-Abhängigkeit entfällt.

#Qwen35 #Alibaba #OpenWeight
https://www.all-ai.de/news/news26top/qwen-3-5-small

Qwen 3.5 Small überrascht im Benchmark-Vergleich

Die 9B-Variante der neuen Qwen Serie deklassiert kompakte Modelle von Google und OpenAI. Sie lässt sich unkompliziert lokal nutzen.

All-AI.de

MiniMax (official) (@MiniMax_AI)

MiniMax M2.5가 Notion Custom Agents에 최초의 오픈 웨이트 모델로 탑재되어 공개됨. 경량화되고 고빈도 에이전트 워크플로에 최적화되어 규모와 비용이 중요한 곳에서 실용적이라는 점을 강조하며, 오픈 웨이트 모델이 실무용 에이전트 환경에 도입된 의미 있는 사례입니다.

https://x.com/MiniMax_AI/status/2028200239388311874

#notion #minimax #openweight #agents #llm

MiniMax (official) (@MiniMax_AI) on X

MiniMax M2.5 is now live as the first open-weight model inside Notion Custom Agents, optimized for lightweight, high-frequency agent workflows. Pretty cool to see open-weight models show up where scale and cost really matter. 🤠

X (formerly Twitter)
#China|s #OpenSource #KIs überholen den Westen: Chinesische #OpenWeight #KIModelle wie #DeepSeek und #Qwen verbreiten sich rasant und bieten nahezu #Spitzenleistung zu deutlich niedrigeren #Kosten.

An open-weight, 380M param, noninvasive thought to text model, via reconstructed, denoised, and upsampled EEG data.

https://www.zyphra.com/post/zuna

#AI #AIResearch #OpenWeight

Zyphra

Io faccio una mia stima (che in realtà qualcuno di voi l’avrà già dedotta da tempo leggendo i miei toot).

Ci sarà un massiccio abbandono della (vera) comunità vecchia dei modelli di #AI americani a favore di modelli #openweight.

Vi ricordo che c’è poco hype per DeepSeek4… troppo presto? Forse… vedremo…

#llm #deepseek

Sebastian Raschka (@rasbt)

Tiny Aya를 스크래치로 재구현했다는 게시물. Tiny Aya는 약 3.35B 파라미터의 비교적 작은 오픈 웨이트 LLM으로 다국어 지원이 특히 강력하다고 평가됨. 작성자는 최근 공개된 오픈웨이트 LLM들의 기술보고서를 검토 중이라고 밝힘.

https://x.com/rasbt/status/2024615708039016520

#tinyaya #llm #openweight #multilingual

Sebastian Raschka (@rasbt) on X

Tiny Aya reimplementation From Scratch! Have been reading through the technical reports of the recent wave of open-weight LLM releases (more on that soon). Tiny Aya (2 days ago) was a bit under the radar. Looks like a nice, small 3.35B model with strongest multilingual support

X (formerly Twitter)

Hasan Toor (@hasantoxr)

알리바바가 자사 플래그십 모델 Qwen의 신버전 Qwen3.5를 공개했습니다. Qwen3.5는 네이티브 멀티모달(natively multimodal) 오픈-웨이트 VLM으로 GUI 상호작용, 비디오 이해, 에이전트형 워크플로우에서 성능과 효율성을 재정의하도록 설계되었으며 차세대 애플리케이션을 겨냥한 오픈 소스/오픈 가중치 모델로 주목됩니다.

https://x.com/hasantoxr/status/2024083448735121748

#alibaba #qwen #vlm #multimodal #openweight

Hasan Toor (@hasantoxr) on X

🚨BIG NEWS from Alibaba: Qwen's new flagship model Qwen3.5 is here, a natively multimodal, open-weight VLM that redefines efficiency vs. performance. Excels at GUI interaction, video comprehension, and agentic workflows. It's not just smarter… it's built for next-gen

X (formerly Twitter)