Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что домашний ИИ – удел владельцев космических станций с жидким азотом. Но прошло совсем немного времени, и ситуация изменилась до неузнаваемости. Теперь достаточно обычной RTX 3060 и получаса свободного вечера, чтобы завести себе персонального ассистента, который работает на даче без интернета и умеет шутить (или хотя бы пытается). Я расскажу обо всём по порядку – без воды и фанатизма. Что вообще запускать, на чём запускать, какие подводные камни ждут и почему “самая новая модель” дома – далеко не всегда лучший выбор. Поехали! Готовьте отвёртку и VRAM – мы начинаем!

https://habr.com/ru/companies/bothub/articles/1028906/

#gemma_4 #qwen36 #qwen35 #gptoss30b #mistral_7b #phi4 #deepseek_v32 #whisper #nemotron_cascade_2

Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что...

Хабр

Tested Microsoft Phi4 14B on my Linux server.

44.8 t/s avg. 9.4GB VRAM. Three runs, three nearly identical speeds --one of the most consistent models I've tested. No drama, no variance, just a quiet workhorse. Most models get chattier as context builds. Not this one.

Turns out Microsoft was cooking at home while everyone assumed they just ordered a carry out from OpenAI.

Read the full breakdown below.

#LocalAI #Ollama #LLM #phi4 #Homela

https://goarcherdynamics.com/2026/03/27/aihome-phi4-14b-review/?utm_source=mastodon&utm_medium=jetpack_social

AI@Home – Phi4 14B Review

Conditions & Context Today we are investigating Microsoft’s serious foray into open LLM models, the Phi4 in 14B weight. An interesting iteration. I’m saying interesting, because it&…

Archer Dynamics

Microsoft Research (@MSFTResearch)

멀티모달 추론을 다루는 Phi-4-reasoning-vision 등 최신 연구·기술 업데이트 요약: LLM 추론 스케일링 관련 신작, 네트워크 운영용 AI 에이전트 벤치마킹, 시네마틱 비디오 생성, LLM 적응형 평가(adaptive evaluation), 개인 및 공중 보건 개선을 위한 AI 응용을 포함한 종합 리포트(링크 포함).

https://x.com/MSFTResearch/status/2031047505786347769

#multimodal #phi4 #llm #ai #videogeneration

Microsoft Research (@MSFTResearch) on X

Multimodal reasoning with Phi-4-reasoning-vision, new work on scaling LLM inference, benchmarking AI agents in network operations, cinematic video generation, adaptive evaluation for LLMs, and using AI to improve individual and population health. https://t.co/9Y0SyTlG5W

X (formerly Twitter)

Microsoft veröffentlicht Phi-4-Reasoning-Vision-15B als Open-Weight-Version.

Das Modell kombiniert Bilderkennung mit logischen Denkprozessen. Es interpretiert Benutzeroberflächen und Diagramme strukturiert, um darauf basierend Aktionen auszuführen.

Durch den Fokus auf ausgewählte Trainingsdaten bleibt der Rechenaufwand gering genug für lokale Anwendungen. #Microsoft #Phi4 #AI
https://www.all-ai.de/news/news26top/phi-4-reasoning-vision-release

Phi-4-Reasoning-Vision wertet Benutzeroberflächen und Dokumente aus

Microsoft veröffentlicht ein effizientes KI-System mit 15 Milliarden Parametern. Es bietet Entwicklern starke visuelle und logische Analysefähigkeiten.

All-AI.de

Microsoft's new Phi‑4 Reasoning Vision 15B packs multimodal reasoning into a compact 15‑billion‑parameter model, delivering low‑latency inference for vision‑language tasks. The paper shows how a tiny model can still reason across images and text, opening doors for open‑source AI on edge devices. Curious? Dive into the benchmarks and see the numbers. #Phi4 #LowLatencyAI #MultimodalAI #CompactModel

🔗 https://aidailypost.com/news/microsofts-phi-4-reasoning-vision-15b-offers-lowlatency-compact-ai

Microsoft Research (@MSFTResearch)

Phi-4-reasoning-vision-15B는 컴팩트하고 빠른 멀티모달 추론 모델로, 기존 비전-언어 모델이 갖는 느림·비용·배포 난제를 완화하도록 설계되었습니다. 다양한 방법의 장점을 결합해 효율적 배포와 향상된 추론 속도를 목표로 하는 최신 멀티모달 연구·제품입니다.

https://x.com/MSFTResearch/status/2029260461707870469

#phi4 #multimodal #visionlanguage #reasoning

Microsoft Research (@MSFTResearch) on X

Vision-language models improve multimodal systems, but can make them slower, costlier, and harder to deploy. Learn how Phi-4-reasoning-vision-15B, a compact and fast multimodal reasoning model, blends strengths of different methods while reducing their limits:

X (formerly Twitter)
🧮 Microsoft dropped Phi-4, a 5.6B parameter open model that rivals much larger systems in mathematical reasoning. Small but mighty is the new efficiency standard. #MicrosoftAI #Phi4 #OpenSource #LLM #AIModels

Định dạng GGUF có thể đã hỗ trợ các mô hình LLM lai Transformer/Mamba? LM Studio đã có các file GGUF cho Granite 4.0 của IBM. Người dùng muốn chuyển đổi Phi-4-mini-flash-reasoning (MSFT) và Nemotron-Nano-9B-v2 (Nvidia) sang GGUF để chạy cục bộ. Thảo luận về khả năng kỹ thuật và chi phí suy luận.

#GGUF #LLM #AI #Mamba #Transformer #Granite4 #Phi4 #NemotronNano #MáyHọc #TríTuệNhânTạo #MôHìnhNgônNgữ

https://www.reddit.com/r/LocalLLaMA/comments/1nzpjz8/how_did_lm_studio_convert_ibms_granite_40_mod

Small language models are becoming increasingly practical in AI, offering efficiency and strong performance. This article explores seven leading models like Google's Gemma, Qwen and Phi-4, highlighting their strengths in areas such as reasoning, multilingual capabilities and accessibility. These models are reshaping AI by enabling on-device intelligence and versatile applications. #SmallLanguageModels #AI #MachineLearning #NLP #Gemma #Qwen #Phi4 https://www.kdnuggets.com/top-7-small-language-models
Top 7 Small Language Models - KDnuggets

Popular small language models are reshaping the AI landscape by combining efficiency, strong reasoning, factual accuracy, tool use, and broad accessibility.

KDnuggets

@heiseonline Microsoft Research baut seit langem eigene Modelle, hier wird offenbar irgendwie Microsoft mit der (neuen?) Microsoft KI Abteilung gleichgesetzt. Mag ja sein dass das der erste Release für die ist, was ich aber nicht weiß - jedoch bestimmt nicht im Allgemeinen.
Stichwort: Phi-Sprachfamilie

#phi4