Причина проста: агенты стали намного автономнее, а модели, лежащие у них под капотом, умнее. Агенты для работы с кодом уже умеют читать репозиторий, править файлы, запускать тесты, делать несколько итераций и возвращаться с результатом, который выглядит как законченный фрагмент работы, а не как отдельный ответ в чате, который потом приходится вручную дописывать.
OpenAI в материале про harness engineering описывает внутреннюю практику “humans steer, agents execute” (люди управляют, агенты исполняют), где агенты берут на себя длинные исполнительские циклы, а люди задают направление и проверяют ключевые решения.
Anthropic в документации по памяти для Claude Code показывает похожую логику: проектные инструкции и накопленная память становятся постоянным рабочим слоем автономного агента.
Как только это происходит в реальной команде на реальном проекте, вопрос быстро становится острым. Ключевыми становятся правила, по которым агент читает проект, какие действия он может делать сам, а где обязан остановиться и как команда увидит ошибку раньше, чем она станет дорогой.
На самом деле такой подход касается не только разработки ПО. При помощи таких агентов можно работать и в других доменах: в аналитике, внутренних операциях, поддержке и редакционных процессах и мн. др. Короткое задание еще можно удержать промптом и настройкой контекста, длинный воркфлоу уже требует управляемого проектного контура.