After A LOT of studying BLAS internals, my PR to the gemm crate is finally open: it introduces mixed-precision BF16 matmuls (optimal for use cases like small models doing autoregressive decoding on CPU)

https://github.com/sarah-quinones/gemm/pull/40

#programming #rust #ai #inference #deeplearning #qwen #asr #opensource #rustlang

Add BF16 GEMM support (mixed precision) by gicrisf · Pull Request #40 · sarah-quinones/gemm

Summary This PR adds support for BF16 (bfloat16) matrix multiplication. The implementation stores inputs/outputs as BF16 but performs computation in F32, converting during the packing phase. This a...

GitHub

Вайбкодим .EXE под Windows с GUI на AutoHotkey v2

История о том, как превратить консольный скрипт в полноценное Windows приложение с GUI на AutoHotkey v2 при помощи нейросетей и вайбкодинга. Разбираем этапы от поиска инструментов до борьбы с интерфейсом в стиле софта нулевых без единой строчки кода, написанной вручную.

https://habr.com/ru/articles/1016392/

#вайбкодинг #нейросети #программирование #autohotkey #cmd #ffmpeg #gemini #qwen

Вайбкодим .EXE под Windows с GUI на AutoHotkey v2

Продолжая изучать тему вайбкодинга для пет проектов на личном опыте и все еще находясь под впечатлением от предыдущей быстрой разработки , когда благодаря нейросетям без особых навыков...

Хабр

Running AI Qwen3.5 locally on a mid-range PC right now. No cloud. No subscriptions. No one reading my prompts.

Is it GPT-5? No. Is it proof that local AI is real, usable, and getting scary close? Absolutely.

Your privacy shouldn't depend on a server farm you don't control. The future runs on YOUR hardware. 🔒🤖

#LocalAI #Qwen #OpenSource #Privacy #AI

Just for the sake of the argument I tested a dense model for #Qwen, just in case. I think people writing about #LLMs are hallucinating. #technology
Alibaba's Qwen AI assistant has been integrated into Hongqi vehicles, debuting in the HS6 PHEV. The system processes complex voice commands across navigation, dining and scheduling within a single query, generating complete travel plans based on real-time data. This marks a shift from reactive in-car features to proactive, scenario-based services. https://pandaily.com/alibaba-s-qwen-integrated-into-hongqi-smart-cockpit-for-in-car-ai-services #China #Tech #AI #Alibaba #Qwen
Alibaba’s Qwen Integrated into Hongqi Smart Cockpit for In-Car AI Services

Alibaba’s Qwen AI has been integrated into the Hongqi HS6 PHEV, enabling the vehicle to execute complex multi-step commands and generate complete travel plans in real-time. This marks a shift from reactive features to proactive, scenario-based in-car services.

Dan McAteer (@daniel_mac8)

Qwen3-14B가 단일 RTX 5060과 훌륭한 하네스를 활용해 LiveCodeBench에서 Sonnet 4.5 성능을 넘어섰다고 주장한다. 작은 하드웨어에서도 강력한 코드 성능을 보인 점이 주목된다.

https://x.com/daniel_mac8/status/2037663947197686040

#qwen #llm #livecodebench #coding #openmodel

Dan McAteer (@daniel_mac8) on X

These ultra geniuses beat Sonnet 4.5 performance on LiveCodeBench with Qwen3-14B, a single RTX 5060 and a great harness.

X (formerly Twitter)

都乃健AI新文明編集局|とのけん3 (@Tono_Ken3)

Qwen3.5 계열 NVFP4 모델을 로컬에서 다루기 위한 연구용 스튜디오 NVFP4studio가 공개됐다. vLLM, FastAPI, Next.js 기반이며 OpenAI 호환 API, 브라우저 UI, GPU/VRAM 시각화, 벤치마크 기록, 런타임 프로필 전환 기능을 제공한다. RTX PRO 6000 Blackwell, RTX 5090 등 최신 GPU 활용을 염두에 둔 도구다.

https://x.com/Tono_Ken3/status/2037495594525278514

#qwen #vllm #fastapi #nextjs #llm

都乃健🇯🇵AI新文明編集局|とのけん3 (@Tono_Ken3) on X

NVFP4studio を公開しました🚀 Qwen3.5 系 NVFP4 モデルをローカルで扱うための、vLLM + FastAPI + Next.js ベースの研究用スタジオです OpenAI 互換 API、ブラウザUI、GPU/VRAM 可視化、benchmark 記録、runtime profile 切替まで一式そろえました とくに RTX PRO 6000 Blackwell や RTX 5090

X (formerly Twitter)

#NeuralNetwork #Nancy #ВеселыеКартинки #webcomic #kb #США #история

Вот такой комикс, 67-лохматого года. Я не распарсил юмор американских реалий тех лет и пошел спрашивать ИИшницу.

  • #ChatGPT полностью зафейлила задачу, не распознала текст, наплела околесицы по поводу сюжета.
  • #Mistral справилась чуть лучше, но тоже прогнала дичи.
  • #Qwen отработала на все 100!

Этот комикс действительно требует понимания реалий середины XX века!

Суть юмора:

В 1950-60-х годах в США были популярны автоматы для взвешивания (weight machines), которые стояли в универсамах, на вокзалах и других общественных местах. За монету такой автомат не только взвешивал человека, но и выдавал карточку с "характеристикой личности" или предсказанием. Эти характеристики обычно были лестными и общими.

Что происходит в комиксе:

  • Нэнси хочет купить молочный коктейль в кредит (за 20 центов)
  • Продавец справедливо спрашивает, почему он должен ей доверять
  • Нэнси предъявляет карточку из автомата для взвешивания, где написано, что она "честная, заслуживающая доверия, правдивая и законопослушная"
  • Абсурдность ситуации в том, что она использует развлекательную карточку из автомата как серьезную рекомендацию для получения кредита!
  • Почему сейчас это непонятно:

    • Такие автоматы исчезли
    • Сегодня никому не придет в голову использовать их карточки как документы
    • Кредитная система стала гораздо формализованнее

    Это сатира на детскую логику и наивность! 😊

    Ну и вдобавок нашла эти карточки и похожего плана весы. Так что нейрослоп нейрослопом, а вместо поисковика — отличная вещь.

    Как заставить LLM считать точно: генерация кода вместо генерации ответов

    Недавно в популярном Facebook-посте: «GPT работает всё хуже. Просишь пересчитать формулу на 600 грамм, он бодро выдаёт две по 300. Пора, видимо, валить». Проблема знакомая каждому, кто пытался использовать LLM для расчётов. Но это не деградация конкретной модели. Это фундаментальное ограничение архитектуры. И у него есть решение.

    https://habr.com/ru/articles/1015434/

    #LLM #Python #Docker #code_generation #бухгалтерия #Qwen #DeepSeek #sandbox #excel

    Как заставить LLM считать точно: генерация кода вместо генерации ответов

    Недавно в популярном Facebook-посте: «GPT работает всё хуже. Просишь пересчитать формулу на 600 грамм, он бодро выдаёт две по 300. Пора, видимо, валить». Проблема знакомая каждому, кто пытался...

    Хабр

    Everybody knows about Sora being discontinued, but fewer people have been talking about Alibaba soft-killing the Qwen team and MS poaching people from Ai2. The latter 2 are more regrettable since those groups actually publish their findings and work on open models.

    If funding were starting to dry up this is what it would look like. As we're well aware of, open source gets the axe first.

    #llm #qwen #olmo