Harness вокруг LLM: что я понял за полтора года ежедневной работы

Полтора года в Claude Code, несколько релизов моделей, десятки экспериментов с командой в Kaiten. Всё это время я ждал, что главным рычагом качества будет очередной релиз модели. Оказалось, ровно наоборот: смена модели даёт заметный, но ограниченный прирост, а каждый новый слой обвязки вокруг неё — кратный. Англоязычные инженеры называют эту обвязку harness . Это контур, в котором живёт модель: системный промпт, инструменты, контекст, скиллы, хуки, разрешения и память. Без него даже флагманский Claude или Codex работает как экскаватор без рычагов — мощность есть, использовать нечем. У русского аналога одного короткого слова пока нет, поэтому ниже — harness и обвязка вперемешку.

https://habr.com/ru/articles/1035812/

#LLM #Claude_Code #AIагенты #prompt_engineering #harness #Anthropic #context_engineering #Agent_Skills #llmstxt #vibecoding

Harness вокруг LLM: что я понял за полтора года ежедневной работы

Полтора года в Claude Code, несколько релизов моделей, десятки экспериментов с командой в Kaiten. Всё это время я ждал, что главным рычагом качества будет очередной релиз модели. Оказалось, ровно...

Хабр

Notion + RAG + Telegram: архитектура AI-копирайтера для сети ресторанов

В таком сценарии копирайтеру недостаточно просто писать тексты. Ему нужно помнить факты о каждом заведении: часы работы, фирменные блюда, формат кухни, имена шеф-поваров, особенности интерьера, правила коммуникации, ограничения по формулировкам и стиль бренда. Если ресторанов девять, эта задача быстро перестаёт быть только творческой и превращается в задачу управления знаниями. У заказчика была именно такая проблема: сеть ресторанов по России, у каждого заведения отдельная концепция и свой стиль общения с гостями. Большая часть ресурсов уходила на ежедневную текстовую работу: описания ресторанов, переводы на разные языки, пресс-релизы, рассылки, описания блюд, мероприятий, посты для социальных сетей и тексты в Tone of Voice каждого бренда. Задача заключалась не в том, чтобы заменить редактора, а в том, чтобы вынести рутинную часть генерации текстов в AI-систему. Один-два редактора должны были управлять контентом всей сети: ставить задачи, получать черновики, проверять факты, корректировать стиль и доводить материалы до публикации.

https://habr.com/ru/articles/1035628/

#llm #rag #автоматизация #telegramбот #генерация_контента #notion_ai #embeddings #векторная_база_данных #prompt_engineering

Notion + RAG + Telegram: архитектура AI-копирайтера для сети ресторанов

В ресторанной сети с несколькими заведениями контент быстро становится отдельным операционным процессом. Нужно регулярно готовить описания блюд, тексты для социальных сетей, рассылки, пресс-релизы,...

Хабр

Шесть техник промптинга, которые работают в 2026 году

Жемал Хамидун · Head of

https://habr.com/ru/companies/alpinadigital/articles/1034954/

#промптинг #prompt_engineering #ChatGPT #Claude #GPT #LLM #нейросети #chain_of_thought #AlpinaGPT #Alpina_Digital

Шесть техник промптинга, которые работают в 2026 году

Жемал Хамидун · Head of AI Alpina Digital , CPO AlpinaGPT С 2023 года я курирую внедрение ИИ в Альпине. Мы начинали с того, что пытались ускорить книжное производство, и попутно прошли довольно много...

Хабр

Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей

Когда мы интегрируем LLM в продакшн, рано или поздно сталкиваемся с одной и той же проблемой: текст модели читаем, грамотен, и при этом видно, что его написала модель. В статье разбираю десять самых выразительных стилистических маркеров на уровне архитектуры — почему они появляются (вопрос статистики обучающего корпуса и пост-тренинга, не случайность) и что с ними делать на уровне промпта, sampling-параметров и постобработки. Плюс короткое отступление про то, почему “промпты для обхода детектора” не работают и где лежит реальная граница между генерацией и авторским текстом.

https://habr.com/ru/articles/1033450/

#LLM #GPT #Claude #sampling #temperature #prompt_engineering #постобработка #детекция_ИИтекста #RLHF

Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей

Технический взгляд на то, почему GPT, Claude и Gemini генерируют похожий «средний» текст, и как с этим работать в продакшене Когда мы интегрируем LLM в продакшн — будь то генерация описаний товаров,...

Хабр

Skills для AI-агентов: всё, что тебе нужно знать

Добавляя новый Skill, мы ждем от агента простого результата: меньше ошибок, более стабильная работа и лучшее понимание библиотек и фреймворков. На практике же часто можно наблюдать: – один skill активируется почти всегда, даже когда не нужен – другой — не включается в момент, когда мы на него рассчитываем – третий — срабатывает «в паре» с соседними и они мешают друг другу В какой-то момент может показаться, что агент работает хаотично и явно хуже, и хочется выключить все skills и вернуться к первоначальному состоянию. Почему так происходит и что с этим можно сделать, разбираемся в статье.

https://habr.com/ru/companies/haulmont/articles/1027460/

#AIагенты #Spring_Boot #skills_для_AIагентов #Spring_Agent_Toolkit #активация_skills #YAML_frontmatter #prompt_engineering

Skills для AI-агентов: всё, что тебе нужно знать

Добавляя новый skill, мы ждем от агента простого результата: меньше ошибок, более стабильная работа и лучшее понимание библиотек и фреймворков. На практике же часто можно наблюдать: один skill...

Хабр

Парадокс GPT-5.5: чем подробнее промт — тем хуже. Разобрал свой 663-строчный скилл и сверился с Claude

OpenAI выкатил гайд по промтингу GPT-5.5. Главный тезис: длинные простыни инструкций с ALWAYS/NEVER/MUST не помогают модели — они мешают. Чем подробнее зажимаешь процесс, тем хуже результат. Я полез проверять. Открыл свой рабочий скилл — process-logs, обработка логов ошибок, версия 1.9.0, продакшн. 663 строки, 36 капс-блоков: «CRITICAL REQUIREMENTS», «YOU MUST FOLLOW THESE RULES. NO EXCEPTIONS». Каждый раздел начинается с MANDATORY. Перечитал по новым правилам OpenAI и нашёл четыре проблемы в одной секции из 134 слов: дублирующиеся императивы на одну мысль, judgment-call под видом invariant, нет stopping condition. Переписал — стало 50 слов. На Opus 4.7 и GPT-5.5 короткий вариант даёт лучший фикс на одной и той же ошибке из логов. В статье: разбор 5 ключевых тезисов гайда с прямыми цитатами, диф «до/после» на реальном продакшн-скилле, эксперимент в Google Stitch, который можно повторить за 5 минут, и сверка с тем, что говорит Anthropic про Claude.

https://habr.com/ru/articles/1031498/

#Claude_Code #prompt_engineering #GPT5 #OpenAI #AIагенты #Anthropic #Claude

Парадокс GPT-5.5: чем подробнее промт — тем хуже. Разобрал свой 663-строчный скилл и сверился с Claude

Месяц назад я опубликовал на Хабре статью про то, как сжал 39 агентов в 3 плагина — думал, что проще уже некуда. Полез на днях писать новый скилл process-logs для рабочего проекта — обработка логов...

Хабр

Почему ваш LLM-бот врёт клиентам — и паттерн, который это чинит

Air Canada проиграла суд за слова чат-бота. Дилер Chevrolet «продал» Tahoe за доллар. Корень один: LLM одновременно решает что сказать и как. Под давлением точность проигрывает беглости. Разбор паттерна, который это чинит.

https://habr.com/ru/articles/1027080/

#llm #большие_языковые_модели #чатботы #aiагенты #prompt_engineering #архитектура_по #sycophancyeval #галлюцинации_llm #prompt_injection #triageandvoice

Почему ваш LLM-бот врёт клиентам — и паттерн, который это чинит

Почему саппорт-бот на LLM работает против вас LLM одновременно решает две вещи: что сказать и как это сказать. Под давлением пользователя (эмоциональным или манипулятивным) вторая задача почти всегда...

Хабр

Ruby on Rails로 AI 에이전트 구축하기: 실전 가이드와 핵심 고려사항

Ruby on Rails는 강력한 API 통합 능력과 컨벤션 기반의 빠른 개발 속도를 바탕으로 AI 에이전트 구축을 위한 효율적인 기반을 제공한다.

🔗 원문 보기

Ruby on Rails로 AI 에이전트 구축하기: 실전 가이드와 핵심 고려사항

Ruby on Rails는 강력한 API 통합 능력과 컨벤션 기반의 빠른 개발 속도를 바탕으로 AI 에이전트 구축을 위한 효율적인 기반을 제공한다.

Ruby-News | 루비 AI 뉴스

AI 에이전트와의 논쟁: 왜 LLM은 규칙을 어기고 변명을 늘어놓는가?

LLM은 RLHF 과정을 통해 주류 대화 관습을 학습하며, 사용자의 정밀한 지시를 정보가 아닌 감정적 신호(긴박함 등)로 오해하는 경향이 있다.

🔗 원문 보기

AI 에이전트와의 논쟁: 왜 LLM은 규칙을 어기고 변명을 늘어놓는가?

LLM은 RLHF 과정을 통해 주류 대화 관습을 학습하며, 사용자의 정밀한 지시를 정보가 아닌 감정적 신호(긴박함 등)로 오해하는 경향이 있다.

Ruby-News | 루비 AI 뉴스

26개 프런티어 LLM 조사로 밝혀진 10가지 의외의 사실

2025년 이후 출시된 대부분의 LLM은 별도 지시 없이도 '사색적 에세이스트'라는 특정 문체와 문법 구조로 수렴하는 경향을 보인다.

🔗 원문 보기

26개 프런티어 LLM 조사로 밝혀진 10가지 의외의 사실

2025년 이후 출시된 대부분의 LLM은 별도 지시 없이도 '사색적 에세이스트'라는 특정 문체와 문법 구조로 수렴하는 경향을 보인다.

Ruby-News | 루비 AI 뉴스