AI coding agents start every session with no memory of your system. In a multi-repo codebase, they can't trace flows across services.

Teams are building "meta-repos" — repos with no app code, just docs and tooling to orient agents across the whole system.

AI didn't invent the need for good docs. It made the penalty for missing them immediate.

https://devnewsletter.com/p/meta-repo-pattern/?utm_source=mastodon&utm_medium=social&utm_campaign=meta-repo-pattern

#DevOps #ContextEngineering

The Meta-Repo Pattern

Repo boundaries blind AI coding agents. Teams are building meta-repos, lightweight system maps with no application code.

The Dev Newsletter

Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM

Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.

https://habr.com/ru/companies/bitrix/articles/1016734/

#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents

Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM

В процессе подготовки статьи про экономику кэширования , собрал несколько анти-паттернов, способных все сломать. Сначала были мысли о том, что это будет короткая врезка в конце, но подняв заметки и...

Хабр

Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM

Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.

https://habr.com/ru/companies/bitrix/articles/1016732/

#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents

Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM

В процессе подготовки статьи про экономику кэширования , собрал несколько анти-паттернов, способных все сломать. Сначала были мысли о том, что это будет короткая врезка в конце, но подняв заметки и...

Хабр

"With AI, the writer’s role moves to what I call context ownership. This is not a soft concept. A context owner is the person in your organization who governs what your AI tools know, how your content is structured, whether the output meets your quality and accuracy standards, and how your documentation systems connect to your product and engineering workflows.

In practice, context ownership looks like this:

A context owner defines and maintains the templates, standards, and structural rules that AI tools follow. Without these, AI produces content that is internally consistent within a single document but inconsistent across your documentation as a whole. Your customers notice, even if you don’t.

A context owner reviews and validates AI-generated drafts against product reality. AI tools do not know what your product actually does in edge cases. They do not know what changed in the last release that hasn’t been documented yet. They do not know that the API endpoint described in the engineering spec was modified during implementation. The context owner does.

A context owner manages the documentation pipeline. In a modern documentation operation, this means version control, docs-as-code workflows, API-driven publishing, and automated quality checks. These are technical systems that require technical management. AI can operate within these systems, but it cannot design, maintain, or troubleshoot them.

A context owner bridges engineering and customer-facing content. This is the function that has never been automated in any transition, and AI has not changed that. Someone has to understand what engineering built, determine what customers need to know about it, and make sure the documentation connects those two realities accurately.
(...)
This is not a diminished version of the writer’s role. It is a more senior, more technical role than “writer” has traditionally implied"
https://greenmtndocs.com/2026-03-25-ive-seen-this-before/
#AI #LLMs #TechnicalWriting #SoftwareDocumentation #ContextEngineering

I've Seen This Before: What Five Technology Transitions Tell Decision-Makers About AI and Documentation | Green Mountain Docs

The pattern is clear. The question is whether you'll repeat the expensive mistake.

Green Mountain Docs
Introducing the pinnacle of BS buzzword bingo, where "meta-prompting" and "context engineering" join forces to help you "Get Shit Done"—assuming you can first decipher what that even means! 😂🤯 It's a #GitHub code salad tossed with every AI tool imaginable, promising to help you write better code by drowning you in jargon. 🥗🔧
https://github.com/gsd-build/get-shit-done #BSbuzzwordbingo #meta-prompting #contextengineering #GetShitDone #AItools #HackerNews #ngated
GitHub - gsd-build/get-shit-done: A light-weight and powerful meta-prompting, context engineering and spec-driven development system for Claude Code by TÂCHES.

A light-weight and powerful meta-prompting, context engineering and spec-driven development system for Claude Code by TÂCHES. - gsd-build/get-shit-done

GitHub

Get Shit Done: A Meta-Prompting, Context Engineering and Spec-Driven Dev System

https://github.com/gsd-build/get-shit-done

#HackerNews #GetShitDone #MetaPrompting #ContextEngineering #SpecDriven #Development

GitHub - gsd-build/get-shit-done: A light-weight and powerful meta-prompting, context engineering and spec-driven development system for Claude Code by TÂCHES.

A light-weight and powerful meta-prompting, context engineering and spec-driven development system for Claude Code by TÂCHES. - gsd-build/get-shit-done

GitHub

Погоди переезжать на дешёвую модель: считаем effective cost с учётом кэша

В сообществе часто пишут о том что KV-cache hit rate - один из главных приоритетов при оптимизации стоимости. Manus в той-самой статье про context engineering и своего агента, TikTok в кейсе про оптимизацию AI-агента для тестирования, AiSDR в статье про перестройку шаблонов генерации писем. Стало интересно стало: а как это считается у MaaS-провайдеров? Я знаком со скидкой за кэш токены, но никогда не садился детально разбирать экономику кэша у OpenAI, Anthropic, Gemini, DeepSeek - с цифрами, сценариями, сравнением. Сел считать. Первый же результат удивил: два запроса к одной и той же модели с одним и тем же объёмом токенов - разница в цене в 3 раза. Зависит только от того, попали ли токены в кэш. Про то как KV-кэш устроен внутри - уже хорошо написано на Хабре, ссылки в конце. Здесь только про деньги и токены: как считать реальную стоимость и почему прайс-лист для этого не подходит только прайс-лист.

https://habr.com/ru/companies/bitrix/articles/1008320/

#ai #нейросети #contextengineering #promptengineering #openai #anthropic #gemini #tokens #prefix_caching

Погоди переезжать на дешёвую модель: считаем effective cost с учётом кэша

Привет, Хабр! Меня зовут Сергей Нотевский, я AI Platform Lead в Битрикс24. Мы строим AI-платформу на self-hosted инференсе - vLLM, свои модели, своя оптимизация. Кэш - одна из ключевых метрик: hit...

Хабр

🤖 The problem isn't the agent — it's your repo. Sharing the Agent Readiness
Framework: 5 levels and 9 pillars to prepare your codebase for the AI agent era.

https://www.cosmoscalibur.com/en/blog/2026/marco-de-preparacion-para-agentes-de-codigo

#AIAgents #FactoryAI #AGENTSmd #ContextEngineering #Antigravity #Claude

Agent Readiness Framework for Coding Projects

Coding agents are here, and they are not going away. But after months of using them —Antigravity, AmpCode, Opencode, Zed’s built-in agent— I have reached an uncomfortable conclusion: the problem is...

Cosmoscalibur

"The new lifecycle is tighter loop
The SDLC was a wide loop. Requirements → Design → Code → Test → Review → Deploy → Monitor. Linear. Sequential. Full of handoffs and waiting.

The new lifecycle is a tight loop.

Intent. Build. Observe. Repeat.

No tickets. No sprints. No story points. No PRs sitting in a queue. No separate QA phase. No release trains.

Just a human with intent and an agent that executes.

So what is left?
Context. That’s it.

The quality of what you build with agents is directly proportional to the quality of context you give them. Not the process. Not the ceremony. The context.

The SDLC is dead. The new skill is context engineering. The new safety net is observability.

And most of the industry is still configuring Datadog dashboards no one looks at."

https://boristane.com/blog/the-software-development-lifecycle-is-dead/

#AI #GenerativeAI #AIAgents #SDLC #SoftwareDevelopment #Programming #ContextEngineering

Boris Tane

AI agents didn't make the SDLC faster. They killed it. All that's left is context.

🧠 #PromptEngineering isn't dead — it evolved. Prompt being in the job title may be fading, but the skill is foundational. Real #AI success isn't just about better prompts. It's about building systems with 5 critical layers: prompting, context, memory, #signals & intent. 🤖⚙️ The orgs winning right now think in systems — not just tasks. Read more 👇

#ArtificialIntelligence #ContextEngineering #IntentEngineering
https://stemsearchgroup.com/prompt-engineering-is-not-dead-it-just-found-its-place/

Prompt Engineering Is Not Dead. It Just Found Its Place.

TL;DR FAQ: Is Prompt Engineering Dead — or Did It Just Evolve? ▼ Q: Is prompt engineering actually dead? A: No. The job title "Prompt Engineer" may be fading, but the skill is fou

STEM Search Group