[Перевод] Skills для Claude Code: огромный гайд от инженера Anthropic

Skills стали одной из самых популярных точек расширения в Claude Code. Они гибкие, их легко создавать и распространять. Но эта гибкость усложняет понимание. Что работает лучше всего? Какие skills стоит делать? Как написать хороший skill? Когда имеет смысл делиться ими с другими? Мы в Anthropic активно используем skills в Claude Code — сейчас у нас их сотни в работе. Ниже — уроки, которые мы извлекли из этого опыта.

https://habr.com/ru/articles/1011524/

#Claude_Code_skills #создание_skills #типы_skills #верификация_кода #скаффолдинг #маркетплейс_плагинов #context_engineering #ранбуки #композиция_skills

Skills для Claude Code: огромный гайд от инженера Anthropic

Skills стали одной из самых популярных точек расширения в Claude Code. Они гибкие, их легко создавать и распространять. Но эта гибкость усложняет понимание. Что работает лучше всего. Какие skills...

Хабр

[Перевод] 8 уровней агентной инженерии

Способности AI в написании кода растут быстрее, чем наше умение этими способностями пользоваться. Поэтому рост баллов на SWE-bench не коррелирует с метриками продуктивности, которые волнуют инженерных руководителей. Когда команда Anthropic выкатывает продукт вроде Cowork за 10 дней, а другая команда не может довести до ума сломанный POC на тех же моделях, разница в одном: первые закрыли разрыв между возможностями моделей и практикой, вторые — нет. Этот разрыв не закрывается за одну ночь. Он закрывается по уровням. Их 8. Большинство читающих эту статью, скорее всего, уже прошли первые несколько, и стоит стремиться к следующему, потому что каждый новый уровень — это резкий скачок производительности, а каждое улучшение моделей усиливает этот эффект ещё больше.

https://habr.com/ru/articles/1010430/

#Агентная_инженерия #LLM #context_engineering #background_agents #MCP #feedback_loops #compounding_engineering #code_review #оркестрация #автономность

8 уровней агентной инженерии

Способности AI в написании кода растут быстрее, чем наше умение этими способностями пользоваться. Поэтому рост баллов на SWE-bench не коррелирует с метриками продуктивности, которые волнуют инженерных...

Хабр

Ваш CLAUDE.md делает агента тупее. Исследование на 138 репозиториях это доказало

Я написал CLAUDE.md на 200 строк. Исследование ETH Zurich на 138 репозиториях говорит: мой агент стал от этого тупее на 3%, а я плачу на 20% больше за токены. Разбираюсь, что пошло не так.

https://habr.com/ru/articles/1010160/

#CLAUDEmd #AGENTSmd #контекст #AIагенты #coding_agents #ETH_Zurich #context_engineering

Ваш CLAUDE.md делает агента тупее. Исследование на 138 репозиториях это доказало

Полгода я собирал идеальный CLAUDE.md. Вычитывал каждую строку. Добавлял секции: «используй yarn, не npm», «тесты запускай так», «структура проекта вот такая». 200 строк чистого, выстраданного...

Хабр

Проблема не в промпте: как Claude Code плывет на длинных задачах и как управлять контекстом

На коротких задачах coding-агент выглядит почти как живой разработчик: читает код, гоняет тесты, находит проблему, предлагает diff, но на длинной дистанции магия заканчивается. Стоит агенту или пользователю подмешать еще пару логов, несколько файлов "на всякий случай" или еще один MCP-сервер, и агент начинает забывать договоренности, повторять уже проверенные шаги и терять план. Обычно это объясняют так: "модель тупит" или "надо лучше промптить", но на практике проблема часто в другом: мы складируем состояние задачи в историю чата и надеемся, что модель удержит его сама. Не удержит. Контекст у LLM - это не бездонный мешок, а рабочая часть "памяти" модели, ее нужно проектировать: что хранить отдельно, что подмешивать just-in-time, что выбрасывать после шага и что обязательно возвращать после compaction. В этой статье я разберу context engineering на примере coding agents, а конкретно на Claude Code: почему long context до сих пор деградирует, почему проблема особенно больно бьет по агентам, чем полезны /compact и Plan Mode, и как собрать минимальный контекстный конвейер без магии и лишней философии.

https://habr.com/ru/articles/1004994/

#ai #claude_code #coding_agents #context_engineering

Проблема не в промпте: как Claude Code плывет на длинных задачах и как управлять контекстом

На коротких задачах coding-агент выглядит почти как живой разработчик: читает код, гоняет тесты, находит проблему, предлагает diff, но на длинной дистанции магия заканчивается. Стоит агенту или...

Хабр
Benchmarking the Most Reliable Document Parsing API | Tensorlake

Learn how Tensorlake built the most reliable document parsing API by measuring what actually matters: structural preservation, reading order accuracy, and downstream usability. See benchmark results comparing Tensorlake to Azure, AWS Textract, and open-source solutions on real enterprise documents.

Tensorlake

[Перевод] Как работает Context Engineering в Claude и других агентах

Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Компакция, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

https://habr.com/ru/articles/953440/

#context_engineering #prompt_engineering #AI_агенты #Claude_Anthropic #LLM #контекст #компакция #инструменты #память

Как работает Context Engineering в Claude и других агентах

Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит...

Хабр