Ускорение вычислений в алгоритме DRS-виртуализации через векторизацию

Переписать решение с Python на Go и получить ускорение в 35 раз — звучит приятно. Но можно ведь пойти дальше, вспомнить о возможностях современных процессоров и увеличить отрыв Go до 200 раз! Статья написана по мотивам доклада для

https://habr.com/ru/companies/oleg-bunin/articles/980710/

#avx #avx2 #avx512 #бэкенд #разработка #go #golang #phyton #ускорение #ускорение_кода

Ускорение вычислений в алгоритме DRS-виртуализации через векторизацию

Переписать решение с Python на Go и получить ускорение в 35 раз — звучит приятно. Но можно ведь пойти дальше, вспомнить о возможностях современных процессоров и увеличить отрыв Go до 200 раз! Привет,...

Хабр

텍스트 청킹 164GB/s로 만들기: memchr와 SIMD로 기존 라이브러리 96,000배 빠르게

RAG 파이프라인용 텍스트 청킹을 164GB/s로 처리하는 memchunk. SIMD와 룩업 테이블로 기존 라이브러리보다 최대 96,000배 빠른 속도를 달성한 방법을 소개합니다.

https://aisparkup.com/posts/7996

SIMD – neboli Single Instruction, Multiple Data – znamená, že procesor může jednou instrukcí zpracovat více datových prvků najednou. Typicky to znamená, že místo sčítání dvou čísel přičtete dvě sady čísel paralelně. To může přinést výrazné zrychlení například při zpracování obrazu, audia nebo numerických výpočtů.

Pokud již SIMD znáte, tato tabulka je vše, co budete potřebovat. A pokud s SIMD teprve začínáte, tabulku pochopíte do konce tohoto článku

https://zdrojak.cz/clanky/stav-simd-v-rustu-v-roce-2025/

#KaiXian #KX7000 is #Zhaoxin’s latest #CPU, featuring a #x86_64 architecture. The core dubbed #CenturyAvenue is 4wide, #AVX2 capable with an out-of-order execution window on par with Intel CPUs from 2010.
Single-threaded performance is close to AMD’s Bulldozer #FX8150 which leads by 13.6% there. In Multithreaded Performance the KX-7000 is soundly beaten even by Bulldozer.
Zhaoxin is part of #China’s effort to build domestic chips in case western ones become unavailable.
https://chipsandcheese.com/p/zhaoxins-kx-7000
Zhaoxin’s KX-7000

Zhaoxin is a Chinese x86 CPU designer.

Chips and Cheese

SIMD на x86 — чудовище Франкенштейна?

Общее количество всех команд во всех этих расширениях — 1342 инструкции ! От комментариев воздержусь, оставлю эту привилегию читателю )) При этом SIMD на RiscV очень хвалят, как очень продуманный, минималистичный, при этом мощный и выразительный: https://www.youtube.com/watch?v=lwIBp6cc-HY

https://habr.com/ru/articles/913586/

#simd #x86 #mmx #avx #avx2

Масштабируемая векторизация в RISCV, Константин Владимиров

YouTube
🎉 Behold, the latest over-engineered solution to a problem nobody had: yet another #string #search utility, because grep's five-decade reign obviously requires an AVX2-fueled #revolution. 🚀 If you believe a 5x speed boost will change your #grep game, brace yourself for a groundbreaking experience that totally justifies its memory-mapped existence. 🙄
https://davidesantangelo.github.io/krep/ #overengineered #solutions #AVX2 #speedboost #HackerNews #ngated
krep - Blazing Fast String Search Utility

Vielleicht sollte #Poettering die Mindestanforderung von #systemd auf CPUs mit #AVX2 erhöhen ;) (yam)

Update for Windows PCs with ARM chips could improve compatibility with x86 games and applications

Qualcomm’s Snapdragon X processors are the fastest ARM-based chips available for Windows laptops to date, making PCs with ARM chips competitive with their Intel and AMD-powered counterparts for the first time.

But hardware is only part of the puzzle. Most PC applications are designed for systems with x86 processors. So Microsoft developed an emulator called Prism that allows you to run x86 […]

https://liliputing.com/?p=173362

#avx2 #emulation #microsoft #prism #snapdragonX #windows11 #windowsInssider #windowsOnArm

Update for Windows PCs with ARM chips could improve compatibility with x86 games and applications - Liliputing

Update for Windows PCs with ARM chips could improve compatibility with x86 games and applications

Liliputing

Try running Llama 3.2 1B Q8, Llama 3.2 3B Q8 & Stable Diffusion 1.5 on Intel UHD Graphics 630. Also, try to run AI models on the CPU.

https://juantechblog.github.io/posts/run-local-llm-stable-diffusion-locally-low-end-hardware/

#AI #llm #stablediffusion #vulkan #avx2 #igpu

Running LLM and Stable Diffusion Locally on My Low-End Hardware

Try running Llama 3.2 1B Q8, Llama 3.2 3B Q8 & Stable Diffusion 1.5 on Intel UHD Graphics 630. Also, try to run AI models on the CPU.

Juan's Tech Blog