Локальный агент для диагностики инфраструктуры
В статье описаны результаты, которые получил в поисках ответа на вопрос "можно ли решать реальные задачи диагностики и исправления проблем инфраструктуры на слабом MacBook в агентском режиме (да, но)".
Локальный агент для диагностики инфраструктуры
В статье описаны результаты, которые получил в поисках ответа на вопрос "можно ли решать реальные задачи диагностики и исправления проблем инфраструктуры на слабом MacBook в агентском режиме (да, но)".
Как запускать LLM локально с LM Studio: Полное руководство 2026
Как запускать LLM локально с LM Studio: Полное руководство 2026 Запускайте большие языковые модели оффлайн на своём компьютере — без API-ключей, без облачных зависимостей, полная приватность
https://habr.com/ru/articles/1005054/
#local_ai #local_llm #llm #lmstudio #ai #artificial_intelligence
Mô hình LLM y tế địa phương tốt nhất tháng 1 năm 2026? Các mô hình LLM mã nguồn mở nào thích hợp cho mục đích y tế? #LLM #Y_tế #Mô_hình_llm #Tháng_1_2026 #Medical_LLM #Local_LLM #Open_source_LLM
https://www.reddit.com/r/LocalLLaMA/comments/1q5pexc/best_local_medical_llm_models_in_jan_2026/
Как научить нейросеть работать руками: создание полноценного ИИ-агента с MCP и LangGraph за час
Надоели чат-боты, которые только болтают? Создаём настоящего ИИ-помощника: читает файлы, ищет в сети, запоминает всё. LangGraph + MCP — пошаговый гайд для Python-разработчиков. Меньше теории, больше работающего кода. - Два готовых агента: классификатор вакансий + файловый помощник - Поддержка Ollama, OpenAI, DeepSeek — выбирайте любую модель - Асинхронная архитектура с обработкой ошибок - Полная интеграция в Python-проекты без no-code конструкторов - Код готов к продакшену: логирование, retry-механизмы, конфигурация От настройки окружения до рабочего агента за час.
https://habr.com/ru/companies/amvera/articles/929568/
#python #langchain #langgraph #mcp #mcpserver #ollama #local_llm #ииассистент #ииагенты #ии
Друзья, приветствую! Надеюсь, успели соскучиться. Последние пару месяцев я с головой ушёл в исследование интеграции ИИ-агентов в собственные Python-проекты. В процессе накопилось немало практических...
I've been having a lot of fun considering how speech-to-text and LLMs can help us have better IRL conversations.
For example: You know when you're talking with a friend and you're trying to remember a book or movie or the name of an acquaintance? What if a listening app could unobtrusively show what it thinks might be the answer on its screen? Or help paint a mental picture that you're trying to explain?
We're at the point now where STT can be on-device (no surveillance) and local LLMs are close to "good enough" for this.
What else would you want an allied device to do for you to complement in-person conversations?
I've seen the light of MCP. Well, not the protocol itself. My understanding is it is pretty janky, and I don't need to be an expert to see the context injection threat it represents.
But I have Claude desktop rigged with local memory, filesystem, shell tools, and a behavioral correction rule system, and it is pretty slick! Next I want to try it with Ollama, although I doubt any model I can run locally will handle the context overhead.
Re: GPT-4o Sycophancy
One of my takeaways is that I don't like having a model change under my feet. The fact that I thought I was talking to "GPT-4o" but it was a different "GPT-4o" is kind of the unsettling part.
Barring a mental health crisis or brain injury, we don't expect peoples' personalities to change much, especially not abruptly. I suppose we extend this expectation to LLMs. This incident was a breach of personality trust, which felt worse than "uncanny valley" to me.
Как запустить локальную LLM (AI) в Android Studio
Привет! Если вы мобильный разработчик и следите за AI-трендами, наверняка задумывались о том, как интегрировать языковые модели (LLM) в свои приложения прямо из Android Studio. В этой статье я расскажу, как это можно сделать быстро и просто, не полагаясь на внешние API и облачные решения.