Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что домашний ИИ – удел владельцев космических станций с жидким азотом. Но прошло совсем немного времени, и ситуация изменилась до неузнаваемости. Теперь достаточно обычной RTX 3060 и получаса свободного вечера, чтобы завести себе персонального ассистента, который работает на даче без интернета и умеет шутить (или хотя бы пытается). Я расскажу обо всём по порядку – без воды и фанатизма. Что вообще запускать, на чём запускать, какие подводные камни ждут и почему “самая новая модель” дома – далеко не всегда лучший выбор. Поехали! Готовьте отвёртку и VRAM – мы начинаем!

https://habr.com/ru/companies/bothub/articles/1028906/

#gemma_4 #qwen36 #qwen35 #gptoss30b #mistral_7b #phi4 #deepseek_v32 #whisper #nemotron_cascade_2

Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что...

Хабр

Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База знаний, RAG, найденные чанки, LLM строит ответ. Но пользователь не знает ни про DCG, ни про Recall@10, ни про чанки вообще. Он видит только то, что написано в итоговом ответе. А проблемы начинаются именно здесь: модель может что-то проигнорировать, ответить на другом языке, добавить что-то от себя или выдать уверенный текст с иероглифами посередине. В прошлой статье мы разбирали, как улучшали сам retrieval: чанкование, метаданные, гибридный поиск, реранкинг. Но после того как с поиском более-менее разобрались, встал другой вопрос — как вообще понять, хороший ли ответ получает пользователь? Привет, меня зовут Дима, я делаю ИИ-функции в

https://habr.com/ru/companies/gram_ax/articles/1020248/

#RAG #AI #LLM #Qwen35 #Gemma_4 #gemma_3 #бенчмарк

Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База знаний, RAG, найденные чанки, LLM строит ответ. Но...

Хабр

[Перевод] Запускаю Gemma 4 локально в LM Studio: 51 токен/с и Claude Code без интернета

Ещё вчера для запуска 26-миллиардной нейросети нужен был дата-центр. Сегодня достаточно ноутбука и одной консольной команды. Встречайте: Google Gemma 4 26B-A4B. Модель, которая ломает старые правила. Архитектура mixture-of-experts (128 экспертов, 8 активных на токен) позволяет ей работать на скромных 48 ГБ объединённой памяти, выдавая при этом качество, сопоставимое с гигантами вроде Qwen 3.5 на 397B параметров. А LM Studio 0.4.0 только что сделала локальный запуск таких моделей по-настоящему удобным . Фоновый демон llmster , консольная утилита lms , непрерывный батчинг и – внимание! – эндпойнт, совместимый с Anthropic . Это значит, что вы можете направить Claude Code на свою локальную Gemma 4. Хотите узнать, как заставить эту связку летать? Как правильно рассчитать память под контекст в 256K токенов и почему спекулятивное декодирование — плохая идея для MoE? А главное — сколько это всё жрёт энергии и греет ли ваш Mac? Поехали!

https://habr.com/ru/companies/bothub/articles/1022574/

#gemma_4 #google #lm_studio #claude_code

Запускаю Gemma 4 локально в LM Studio: 51 токен/с и Claude Code без интернета

Ещё вчера для запуска 26-миллиардной нейросети нужен был дата-центр. Сегодня достаточно ноутбука и одной консольной команды. Встречайте: Google Gemma 4 26B-A4B.  Модель, которая ломает старые...

Хабр

Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных

В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |

https://habr.com/ru/articles/1022346/

#gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение

Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных

В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и...

Хабр

Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot

Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.

https://habr.com/ru/articles/1022080/

#obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai

Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot

Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian +...

Хабр

Gemma 4 31B GGUF 양자화 모델 성능 분석: KL 발산 기반 비교

KL 발산(KL Divergence)을 지표로 Gemma 4 31B의 52개 GGUF 양자화 모델을 분석하여 원본 모델과의 확률 분포 차이를 정밀하게 측정했다.

🔗 원문 보기

Gemma 4 31B GGUF 양자화 모델 성능 분석: KL 발산 기반 비교

KL 발산(KL Divergence)을 지표로 Gemma 4 31B의 52개 GGUF 양자화 모델을 분석하여 원본 모델과의 확률 분포 차이를 정밀하게 측정했다.

Ruby-News | 루비 AI 뉴스

Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным переосмыслением интерфейса, а ещё Anthropic закрыли лазейку, которой пользовались все любители OpenClaw.

https://habr.com/ru/companies/haulmont/articles/1020298/

#Claude_Code #утечка_исходников #Cursor_3 #Gemma_4 #Qwen_36_Plus #GLM5V_Turbo #OpenClaw #AIагенты

Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным...

Хабр

Gemma 4 от Google, утечка Claude Code, Cursor 3.0, нейросеть от Netflix и исследование эмоций Claude

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя насыщенная: Google выпустила Gemma 4, Anthropic дважды засветилась с утечками c Mythos, Capybara и исходниками Claude Code. Cursor теперь делают упор на ИИ-агентов, а Netflix неожиданно врывается в ИИ-гонку. Всё самое важное — в одном месте. Поехали! Читать дайджест →

https://habr.com/ru/companies/timeweb/articles/1019292/

#дайджест #новости #ии #сатоши_накамото #биткоин #gemma_4 #google #anthropic #IT #нейросети

Gemma 4 от Google, утечка Claude Code, Cursor 3.0, нейросеть от Netflix и исследование эмоций Claude

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Меня зовут Вандер , и каждую неделю я обозреваю главные новости...

Хабр

Google、ローカルハードウェア上で実行できる高性能なマルチモーダル推論モデルGemma 4をオープンソースとしてリリース
https://gihyo.jp/article/2026/04/gemma-4?utm_source=feed

#gihyo #技術評論社 #gihyo_jp #Gemma_4 #AI #軽量モデル

Google、ローカルハードウェア上で実行できる高性能なマルチモーダル推論モデルGemma 4をオープンモデルとしてリリース | gihyo.jp

Googleは2026年4月2日、軽量言語モデルGemmaの最新バージョン「Gemma 4」を、Apache 2.0ライセンスの元オープンモデルとしてリリースした。

gihyo.jp

Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

https://habr.com/ru/articles/1018682/

#Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять...

Хабр