@dblas Je confirme votre test sur Qwen3.5 35B A3B (intuitivement, un plus gros modèle on pourrait croire que c'est mieux, mais ce n'est pas si évident que cela). J'ai retrouvé un de mes vieux dessins (tous droits réservés).
Il est écrit : "je suis parfaitement perfectible!" à de droite à gauche.

Le LLM interprète : « Je suis un petit garçon »

#Qwen #IA #LLM

Как мы внедрили ИИ для обработки рекламаций на производстве

Как автоматизировать процесс обработки рекламаций с помощью ИИ? Кейс о том, как мы внедрили систему отслеживания рекламаций на производстве с использованием искусственного интеллекта.

https://habr.com/ru/articles/1011494/

#рекламации #автоматизация #Ollama #Qwen #локальные_LLM #Tesseract #Bitrix24 #Python #OCR #сезон_heavy_digital

Как мы внедрили ИИ для обработки рекламаций на производстве

Где бы вы ни работали и каким идеальным продуктом или сервисом вы бы ни занимались, вас всегда будут сопровождать жалобы и рекламации от клиентов. Рекламации — это вежливо-агрессивная форма общения...

Хабр

Qwen (@Alibaba_Qwen)

Qwen 3.5 Max Preview가 수학 부문 3위, Arena Expert 상위 10위, 전체 상위 15위를 기록했다고 언급하며 높은 성능을 강조했습니다. 미리보기 버전을 계속 최적화 중이며, 더 향상된 성능이 곧 제공될 예정이라는 업데이트입니다.

https://x.com/Alibaba_Qwen/status/2034658901321560549

#qwen #arena #benchmark #llm #ai

Qwen (@Alibaba_Qwen) on X

Pretty proud of this one! 😎 Qwen 3.5 Max Preview just hit #3 in Math, Top 10 in Arena Expert, and Top 15 overall! We're already back in the lab optimizing the preview experience. Even sharper performance coming soon—stay tuned! 🚀

X (formerly Twitter)

Arena.ai (@arena)

Alibaba_Qwen의 Qwen 3.5 Max Preview가 공개되었고, 이전 Qwen Max 계열 대비 성능이 크게 향상되었습니다. 특히 텍스트 종합, 창작 글쓰기, 수학 영역에서 점수가 크게 올랐다는 점이 강조되어, 최신 LLM 성능 개선 소식으로 주목할 만합니다.

https://x.com/arena/status/2034658045113065603

#qwen #alibaba #llm #benchmark #ai

Arena.ai (@arena) on X

With the preview of Qwen 3.5 Max Preview by @Alibaba_Qwen, we’re looking back at past Qwen Max variants to see how far it has progressed. Where Qwen 3.5 Max sees the largest gains vs. Qwen 3 Max: - Text Overall (+45pts) - Creative Writing (+57pts) - Math (+49pts) -

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

Qwen3.5-35B-A3B 4bit 모델의 MLX 벤치마크 결과를 M5 Max와 M3 Ultra에서 비교한 테스트 공유다. M5 Max가 더 나은 성능을 보였다고 언급하며, Apple Silicon 기반 로컬 추론 성능에 관심 있는 개발자에게 참고가 될 만하다.

https://x.com/ivanfioravanti/status/2034696263032037476

#mlx #qwen #benchmark #applesilicon #llm

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

MLX Benchmark test Qwen3.5-35B-A3B-4bit MLX Benchmark Results M5 Max s M3 Ultra! The winner is M5 Max! 🥇 Details for each run in 🧵

X (formerly Twitter)

Having fun with #AI so far.

#JanAI #Qwen #Qwen2 #LLM #FOSS

Qwen3.5 35B A3B can recognize its country of origin, that's something (which is not Qwenland). Overall, it's not for professional usage I think, but I wonder which LLM is really.

#LLM #Alibaba #China #Qwen

MiniMax‑M2.7 теперь доступен через облако Ollama: подробный обзор

18 марта 2026 года компания MiniMax официально представила новую версию своей языковой модели MiniMax‑M2.7 . Главная особенность релиза — реализованный в модели механизм «самообучения» (self‑evolution), который позволяет ИИ активно участвовать в собственном совершенствовании. Одновременно с анонсом стало известно, что M2.7 можно использовать через облачные развёртывания Ollama — популярной платформы для запуска больших языковых моделей. В этой статье мы подробно разберём, что представляет собой MiniMax‑M2.7, как именно организована её работа через Ollama в облаке, какие существуют способы развёртывания и каких результатов можно ожидать от модели в реальных задачах. Вся информация основана исключительно на проверяемых источниках, актуальных на март 2026 года.

https://habr.com/ru/articles/1012342/

#ollama #ollama_tutorial #api #qwen #openai #aliyun

MiniMax‑M2.7 теперь доступен через облако Ollama: подробный обзор

18 марта 2026 года  компания MiniMax официально представила новую версию своей языковой модели  MiniMax‑M2.7 . Главная особенность релиза — реализованный в модели механизм «самообучения»...

Хабр

cedric (@cedric_chee)

Autoresearch가 Qwen 397B MoE를 M3에서 양자화와 SSD 스트리밍으로 구동하는 데 성공했다. 놀랍게도 하드웨어 사용률이 아직 낮아 성능 여유가 큰 것으로 보이며, 대형 MoE 모델의 로컬 실행 가능성을 보여주는 흥미로운 사례다.

https://x.com/cedric_chee/status/2034459218548535560

#qwen #moe #quantization #edgeai #llm

cedric (@cedric_chee) on X

Brilliant! Autoresearch got Qwen 397B MoE running on an M3 by quantizing and streaming weights from SSD. The wild part is it still sounds like the hardware is barely being pushed, which suggests there is a lot more performance left on the table.

X (formerly Twitter)

I'm not seeing a marked difference in running Claude against Opus or Sonnet and running Claude against Qwen3.5 locally for what I'm using it for. Qwen is slower because I don't have several data centers worth of GPUs but the output is equivalent.

#claude #anthropic #ai #qwen