Память ИИ‑агентов: как агенты запоминают, забывают и учатся

Память ИИ‑агентов: как агенты запоминают, забывают и учатся Всем привет! Продолжаю рассказывать и делиться своим опытом создания и внедрения ИИ-агентов. Сегодня давайте поговорим про память ИИ-агентов. Я поделюсь какие типы памяти использую чаще всего, поговорим про базовый минимум без которого нет смысла пытаться строить ИИ-агентов. Начнём с того как вообще работает контекстное окно и почему его не хватает, потом разберём какие типы памяти бывают, как они хранятся и как подгружаются в контекст.

https://habr.com/ru/articles/1012894/

#openai #claude_code #memory_management #rag #rag_pipeline #память_ии #claude_ai #qdrant #ииагенты #ииассистент

Память ИИ‑агентов: как агенты запоминают, забывают и учатся

Всем привет! Продолжаю рассказывать и делиться своим опытом создания и внедрения ИИ-агентов. В прошлой статье мы разобрали какие бывают архитектуры ИИ-агентов, если вы ее еще не читали я рекомендую...

Хабр

[Перевод] Claude Code vs. Codex: исчерпывающее сравнение

Я использовал Claude Code несколько месяцев, потом перешёл на Codex. Недавно вернулся обратно — и причина не в бенчмарках. Также протестировал оба инструмента на одной и той же задаче. В этой статье я разберу разные аспекты Claude Code и Codex, сравню флагманские модели Opus 4.6 и GPT-5.3-Codex, расскажу, что реально влияет на опыт AI-разработки, и покажу кейс-стади: построение RAG-пайплайна в обоих агентах. Сразу предупрежу: читать ~12 минут. По-моему, это оправдано, если вы собираетесь платить $200/месяц за любой из них.

https://habr.com/ru/articles/1009444/

#claude_code #codex #ai_coding_agent #claude_vs_codex #opus_46 #coding_agent_comparison #rag_pipeline

Claude Code vs. Codex: исчерпывающее сравнение

Я использовал Claude Code несколько месяцев, потом перешёл на Codex. Недавно вернулся обратно — и причина не в бенчмарках. Также протестировал оба инструмента на одной и той же задаче. В этой статье я...

Хабр

Простые проблемы, которые мы решали в ИИ-стартапе

Предыстория. Ну как ИИ-стартап, в общем-то обычный SaaS но с ключевыми задачками в бизнес-процессах для LLM. Задача основателю казалась простой. Нужно было построить систему, которая принимает пользовательский запрос, анализирует контекст пользователя, извлекает релевантные данные и формирует ответ. На первом этапе архитектура ИИ-слоя выглядела очень просто и типично: user request ⭢ RAG retrieval ⭢ LLM ⭢ answer В прототипе все работало отлично. Но после запуска в реальном продукте начались первые проблемы. Именно тогда этот стартап и попал ко мне.

https://habr.com/ru/articles/1008230/

#стартап #команда_разработки #команда_стартапа #retrieval #rag #rag_система #rag_pipeline #ииинжиниринг

Простые проблемы, которые мы решали в ИИ-стартапе

Предыстория. Ну как ИИ-стартап, в общем-то обычный SaaS но с ключевыми задачками в бизнес-процессах для LLM.  Задача основателю казалась простой. Нужно было построить систему, которая принимает...

Хабр

RAG на PHP + Qdrant: быстрый MVP для внутренней базы знаний

RAG на PHP - звучит непривычно. Делюсь опытом построения чат-бота для поиска по внутренней базе документов: Symfony, Qdrant с гибридным поиском, YandexGPT для embedding и генерации ответов. Внутри — готовый код, подводные камни чанкинга и советы, которые сэкономят вам время.

https://habr.com/ru/articles/1001156/

#rag #retrieval_augmented_generation #llm #qdrant #yandexgpt #php #rag_pipeline #neuron

RAG на PHP + Qdrant: быстрый MVP для внутренней базы знаний

В этой статье покажу, как мы собрали RAG-систему на PHP и Qdrant: выбрали векторную базу и LLM, настроили гибридный поиск и реализовали чат-бота на Symfony с использованием PHP фреймворка Neuron AI. К...

Хабр

На чём будут учиться нейросети в 2026

На чём будут учиться нейросети дальше в 2026-2027 , если публичные Q&A-площадки (вроде StackExchange/Stack Overflow "высыхают". Небольшая исследовательская заметка какие источники данных будут доминировать в 2026–2027, и почему “интернет как датасет” заканчивается в привычном виде.

https://habr.com/ru/articles/990738/

#Stack_Overflow #FineWeb #Hugging_Face #AI #RAG #rag_pipeline

На чём будут учиться нейросети в 2026

https://data.stackexchange.com/stackoverflow/query/1932553/data-stack-exchange#graph Недавно мне попался график (примерно такой, как на скрине выше): число новых вопросов на StackExchange/Stack...

Хабр

Ragex: Гибридный RAG для анализа кода

Я поломался, поломался — и поломался на осколки. Признаю́: железные помощники Т9 действительно могут приносить пользу в разработке. Единственное, что мне не нравилось — то, что весь проект большой и хорошо натренированной модели не скормишь, а значит — неизбежны потери контекста, размывание смыслов и джойсовские галлюцинации. Я уже давно понял: если мне нужно, чтобы что-то было сделано хорошо, — делегирование отпадает, придётся брать в руки молоток самому. Это касается любых жизненных аспектов: варки борща, замены сантехники, перевода Эдгара Аллана По или Антонио Мачадо на русский, или, там, программирования. Когда БЯМ научились подключать сторонние MCP-сервера, произошел качественный скачок. Теперь не нужно файнтьюнить модель, можно файнтьюнить буковку « R » из акронима « R AG ». Я-то лучше знаю, как правильно извлекать смыслы из моего личного контента. Если речь про код — лучше всего искать правду в AST . Так и был зачат Ragex — MCP-сервер для семантического анализа кодовых баз с элементами чёрной магии. Проект, понятно, написан на Elixir , потому что ну а на чем еще?

https://habr.com/ru/articles/982418/

#mcpserver #mcptools #mcpservers #mcpсервер #mcp_server #rag #rag_pipeline #rag_ai

Ragex: Гибридный RAG для анализа кода

Я поломался, поломался — и поломался на осколки. Признаю́: железные помощники Т9 действительно могут приносить пользу в разработке. Единственное, что мне не нравилось — то, что весь проект...

Хабр

Документный хаос? RAG-система придёт на помощь

Статья описывает практическую реализацию системы Retrieval-Augmented Generation (RAG) для превращения документов в интерактивную базу знаний. Показано, как хранение эмбеддингов в Qdrant и интеграция с языковой моделью (LLM) позволяют быстро получать точные ответы на вопросы. Рассматриваются архитектура, ключевые компоненты и внутренние механизмы работы системы, полезные для разработчиков и новичков в области RAG.

https://habr.com/ru/articles/955768/

#rag #ai_assistant #ai_agent #rag_система #rag_pipeline #rag_техники #rag_ai #document_management #python

Документный хаос? RAG-система придёт на помощь

Всем привет! Предисловие В этой статье я хочу поделиться своим опытом создания приложения на базе Retrieval-Augmented Generation (RAG) системы, которая превращает кучу документов в удобную...

Хабр

[Перевод] Часть 5. Обзор техник оценки качества систем RAG

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь , на вторую часть — здесь , третью часть — здесь , четвёртую часть — здесь ). К некоторым терминам, как и в прошлых частях, добавлены переводы и пояснения для удобства начинающих ИТ-переводчиков. В этой части мы поговорим про техники оценки качества систем RAG и соответствующие им наборы данных. Основная цель — понять и оптимизировать эффективность моделей RAG в различных прикладных сценариях.

https://habr.com/ru/articles/948786/

#rag #rag_pipeline #nlp #nlp_обработка_текста #искусственный_интеллект #база_знаний #метрики #бенчмарки

Часть 5. Обзор техник оценки качества систем RAG

Предисловие переводчика Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь , на вторую...

Хабр

Случайный ИИ успех: Как мы встроили нейросеть в приложение для автосервисов и сорвали куш с подписками

Привет, чемпионы! Сегодня хочу разобрать на реальном примере, как иногда самые неочевидные идеи те, что в момент презентации заставляют тимлидов молча поправлять очки, а менеджеров ёрзать на стуле могут не просто выстрелить, а полностью перевернуть продукт. Это история не про гениальный прорыв, а скорее про настойчивость, готовность к экспериментам и немного удачи. Всё началось с того, что мы упёрлись в классический потолок роста в, казалось бы, совершенно непримечательной нише мобильном приложении для поиска и записи в автосервисы. У нас был стандартный, почти шаблонный продукт: каталог услуг со средними по рынку ценами, модуль онлайн записи, карта с геолокацией мастерских, даже отзывы и рейтинги. Всё как у людей. Но проблема была в том, что мы были как все. А в условиях, когда на каждом углу есть аналоги, конкуренция идёт не за функционал, а за доверие и внимание пользователя. Люди заходили, смотрели прайс, звонили в пару мест и уходили. Удержание было низким, монетизация ещё ниже. Нужен был крючок. Не просто ещё одна кнопка в интерфейсе, а что то, что давало бы мгновенную, осязаемую пользу и решало реальную боль. И вот на одной из планерок, где мы в очередной раз ломали голову над тем, как увеличить конверсию, я бросила: «А что, если сделать так, чтобы пользователь мог просто сфоткать свою проблему потёкшее масло, скрипящие тормоза, вмятину на бампере а мы ему примерно назовём поломку и прикинем, во сколько это выльется?». В комнате повисла тишина. Послышалось что то вроде «нейросеть?», «а обучающая выборка?», «а точность?», «юридические риски». Но решили взяться, так как я была уверена в бомбовом результате. И понеслась.

https://habr.com/ru/companies/datafeel/articles/944354/

#ai #rag #rag_pipeline #nlp #автосервис #компьютерное_зрение #computervision #подписки #искуственный_интеллект #монетизация

Случайный ИИ успех: Как мы встроили нейросеть в приложение для автосервисов и сорвали куш с подписками

Привет, чемпионы! Сегодня хочу разобрать на реальном примере, как иногда самые неочевидные идеи те, что в момент презентации заставляют тимлидов молча поправлять очки, а менеджеров ёрзать на стуле...

Хабр

Retrieval-Augmented Generation (RAG): глубокий технический обзор

Retrieval-Augmented Generation (RAG) – это архитектурный подход к генеративным моделям, который сочетает навыки поиска информации с генеративными возможностями больших языковых моделей (LLM). Идея RAG была предложена в 2020 году, чтобы преодолеть ограничение LLM – замкнутость на знаниях из обучающих данных. Вместо попыток «вживить» все знания в параметры модели, RAG-подход позволяет модели запрашивать актуальные сведения из внешних источников (баз знаний) во время генерации ответа . Это обеспечивает более точные и актуальные ответы, опирающиеся на факты, а не только на память модели. В этой статье мы подробно рассмотрим : архитектуру RAG, её компоненты и этапы работы, современные инструменты и практики для реализации RAG, примеры кода на Python, кейсы применения в бизнесе и науке, технические вызовы и лучшие практики, сравнение RAG с классическим fine-tuning, перспективы технологии.

https://habr.com/ru/articles/931396/

#rag #retrieval_augmented_generation #llm #ai #rag_pipeline #rag_ai #finetuning #ragas

Retrieval-Augmented Generation (RAG): глубокий технический обзор

Retrieval-Augmented Generation (RAG) – это архитектурный подход к генеративным моделям, который сочетает навыки поиска информации с генеративными возможностями больших языковых моделей (LLM). Идея RAG...

Хабр