Цена контекста в агентной разработке: почему bottleneck — не код, а внимание человека

Пока diff небольшой, в нас просыпается хранитель инженерной чистоты: мы спорим о нейминге, замечаем лишний пробел, обсуждаем, стоило ли выносить логику в helper , но когда правка разрастается до тысяч строк, строгость уступает другому подходу: CI зелёный, тесты прошли, код выглядит вроде неплохо - можно жать Approve . С coding-агентами проблема становится более системной. Пока задача небольшая и хорошо ограничена, результат ещё можно напрямую соотнести с исходным запросом, но при асинхронной и мультиагентной работе у каждого из агентов появляются собственные подзадачи, гипотезы и хвосты незавершённых решений. Поэтому, возвращаясь в процесс, человек проверяет уже не изолированные изменения, а заново восстанавливает состояние задачи - что именно было задумано, что уже проверено, какие инварианты теперь считаются действующими и где остался риск. И именно здесь ломается наивный human-in-the-loop , а большой diff - является лишь симптомом. Настоящее узкое место - стоимость повторного входа в контекст: формально человек остаётся в процессе, но фактически его роль всё чаще сводится к механическому одобрению, в свою очередь дефицитом становится не машинная производительность, а человеческое внимание. В прошлой статье о контекстной инженерии для coding-агентов я писал о памяти агента. Здесь - о том, какая память и какие механизмы контроля нужны уже человеку.

https://habr.com/ru/articles/1008344/

#мультиагентная_разработка #ИИагенты #agentic_AI #code_review #context_switching #humanintheloop #quality_gates #контекстная_инженерия #AIassisted_development

Цена контекста в агентной разработке: почему bottleneck — не код, а внимание человека

Пока diff небольшой, в нас просыпается хранитель инженерной чистоты: мы спорим о нейминге, замечаем лишний пробел, обсуждаем, стоило ли выносить логику в helper , но когда правка разрастается до тысяч...

Хабр
Vibe coding empowers domain experts in journalism to build tools with AI, but risks like technical debt, security vulnerabilities, and knowledge loss threaten organisational stability when the coders leave. Governance is crucial for sustainable innovation.
Discover more at https://smarterarticles.co.uk/journalism-built-on-borrowed-code-what-happens-when-the-vibe-coders-leave?pk_campaign=rss-feed
#HumanInTheLoop #AIinJournalism #TechGovernance
Journalism Built on Borrowed Code: What Happens When the Vibe Coders Leave

In February 2025, Andrej Karpathy, former director of AI at Tesla and co-founder of OpenAI, introduced a term that would reshape how mi...

SmarterArticles
AI training on creative works raises vital questions about fair compensation and legal frameworks. Emerging models like collective licensing, opt-in participation, and micropayments aim to address artist rights in this transformative era. Discover more at https://dev.to/rawveg/ai-trains-on-your-art-mkd
#HumanInTheLoop #AIinCreativity #CopyrightReform #CreativeEconomy
AI Trains on Your Art

When Andrea Bartz, Charles Graeber, and Kirk Wallace Johnson filed their class action lawsuit against...

DEV Community
The global AI race is now driven by electricity demand, with data centres consuming ever-increasing power. Major tech firms are investing heavily in nuclear energy, yet this surge raises environmental and geopolitical concerns. Will AI’s energy needs help or hinder decarbonisation?
Discover more at https://smarterarticles.co.uk/watts-before-chips-the-energy-scramble-reshaping-global-ai-power?pk_campaign=rss-feed
#AIinInfrastructure #EnergyTransition #SustainableTech #HumanInTheLoop
Watts Before Chips: The Energy Scramble Reshaping Global AI Power

The race to build the most powerful artificial intelligence on Earth was supposed to be about algorithms, data, and talent. It was supp...

SmarterArticles
AI is revolutionising farming with precision, prediction, and optimisation, boosting yields and reducing waste. Yet, its benefits remain uneven, especially for smallholders. Building inclusive, sustainable agricultural AI demands deliberate policy, infrastructure, and fairness.
Discover more at https://dev.to/rawveg/the-future-of-food-14gj
#HumanInTheLoop #AgricultureTech #FoodSecurity #ClimateResilience
The Future of Food

Twenty-eight percent of humanity, some 2.3 billion people, faced moderate or severe food insecurity...

DEV Community
The political and regulatory landscape of AI is shifting dramatically, with ideological divides influencing safety standards, investment, and government deployment. This realignment risks entrenching biases and fragmenting global AI development.
Discover more at https://smarterarticles.co.uk/safety-is-now-subversive-the-government-war-on-ai-guardrails?pk_campaign=rss-feed
#HumanInTheLoop #AIRegulation #TechPolitics #AIinGovernance
Safety Is Now Subversive: The Government War on AI Guardrails

Something peculiar is happening in Silicon Valley. The industry that once prided itself on a libertarian ethos of building first and as...

SmarterArticles

I try to keep political topics off my blog and stick to facts, even if Aveesha loves reminding me I can be cynical. Still, one idea feels impossible to ignore: sci-fi has warned us for years about handing too much power to machines. AI can be a great assistant, but it should never be the final decision-maker.

From sci-fi to healthcare, this post explores why AI should support human judgment, not replace it.

#AI #ResponsibleAI #AISafety #HumanInTheLoop #TechEthics

https://victornava.dev/2026/03/10/the-warning-hidden-inside-our-favorite-ai-stories/

The Warning Hidden Inside Our Favorite AI Stories

From sci-fi to healthcare, this post explores why AI should support human judgment, not replace it in critical decisions.

Victor Nava
Google's efforts to democratise AI clash with the chaotic reality of content moderation, often punishing legitimate experimentation. Systemic automation failures break trust, risking creator displacement and platform instability. Will coherence or regulation save the ecosystem?
Discover more at https://dev.to/rawveg/google-vs-google-39p4
#HumanInTheLoop #AIethics #ContentModeration #CreatorEconomy
Google vs Google

The promise was straightforward: Google would democratise artificial intelligence, putting powerful...

DEV Community

AI-продакт и результат: как рождаются продукты, которые приносят деньги

В цифровых продуктах «сделать фичу» давно не равно «создать ценность»: она появляется, когда решение меняет процесс и дает измеримый результат. В AI-продуктах это особенно важно: ценность определяет не интерфейс и не сама модель, а способность системы стабильно и безопасно закрывать задачу с предсказуемой экономикой.

https://habr.com/ru/companies/beeline_cloud/articles/1008580/

#искусственный_интеллект #ai #продуктовая_разработка #продуктовый_менеджмент #aiагенты #внедрение_ai #бизнесметрики #humanintheloop #цифровая_трансформация #цифровая_трансформация_бизнеса

AI-продакт и результат: как рождаются продукты, которые приносят деньги

В цифровых продуктах «сделать фичу» давно не равно «создать ценность»: она появляется, когда решение меняет процесс и дает измеримый результат. В AI-продуктах это особенно важно: ценность определяет...

Хабр
Innovative techniques like on-demand tool discovery, code-based orchestration, and example-driven prompts are optimising AI agent efficiency by reducing token costs and boosting accuracy, reshaping enterprise agent architectures. Discover more at https://smarterarticles.co.uk/more-tools-made-ai-worse-the-engineering-fix-now-reshaping-agentic-systems?pk_campaign=rss-feed
#AIinCinema #AgenticSystems #TechInnovation #HumanInTheLoop
More Tools Made AI Worse: The Engineering Fix Now Reshaping Agentic Systems

Something strange happened in late 2025. Engineers at Anthropic noticed that their AI agents were choking on their own capabilities. Th...

SmarterArticles