HalChatLocalAI: как я встроил офлайн-ИИ прямо в мессенджер

Большинство ИИ-ассистентов работают в облаке. А я сделал локальный — прямо внутри мессенджера HalChat .

https://habr.com/ru/articles/966888/

#ИИ #Локальный_ИИ #HalChat #HalSM #WLLama #LLM #приватность #javascript #чат_бот #экосистема

HalChatLocalAI: как я встроил офлайн-ИИ прямо в мессенджер

Большинство ИИ-ассистентов работают в облаке. А я сделал локальный — прямо внутри мессенджера HalChat . Большинство современных ИИ-ассистентов работают в облаке, требуют подключения к серверам и не...

Хабр
De WASM au C++: l’IA de Firefox change de braquet pour devenir jusqu'à 10 fois plus rapide

De WebAssembly (WASM) à C++, Firefox change de moteur d'exécution pour son IA locale et annonce des gains de « 2 à 10× » selon les tâches, tout en supprimant le coût de chauffe propre au WASM lors des premiers lancements. Les premières fonctions concernées, dont les groupes d'onglets intelligents et la génération d'alt‑text dans PDF.js, bénéficient déjà de cette accélération dans Firefox 142, avec une latence mesurée passant de 3,5 s à 350 ms pour l'alt‑text sur la même machine.

clubic.com

🧠 #Wllama è un progetto che permette di eseguire l'inferenza del modello di linguaggio direttamente nel browser.
👉 Senza backend e senza #GPU. Il tutto basato su #WebAssembly SIMD.
⚙️ Con tutte le limitazioni del caso, ma per certi tipi di applicazioni semplici è un approccio davvero interessante.
🔗 Il progetto: https://github.com/ngxson/wllama

___
✉️ 𝗦𝗲 𝘃𝘂𝗼𝗶 𝗿𝗶𝗺𝗮𝗻𝗲𝗿𝗲 𝗮𝗴𝗴𝗶𝗼𝗿𝗻𝗮𝘁𝗼/𝗮 𝘀𝘂 𝗾𝘂𝗲𝘀𝘁𝗲 𝘁𝗲𝗺𝗮𝘁𝗶𝗰𝗵𝗲, 𝗶𝘀𝗰𝗿𝗶𝘃𝗶𝘁𝗶 𝗮𝗹𝗹𝗮 𝗺𝗶𝗮 𝗻𝗲𝘄𝘀𝗹𝗲𝘁𝘁𝗲𝗿: https://bit.ly/newsletter-alessiopomaro

#AI #GenAI #GenerativeAI

GitHub - ngxson/wllama: WebAssembly binding for llama.cpp - Enabling on-browser LLM inference

WebAssembly binding for llama.cpp - Enabling on-browser LLM inference - ngxson/wllama

GitHub