Стратегические противоречия при внедрении агентного ИИ

Четыре ключевых противоречия от MIT Sloan Management Review и BCG

Рубрика: статья

Автор: Елена Третьякова

Время чтения: 7 мин

Степень использования AI в создании этого материала: текст в значительной степени — перевод исходной статьи при помощи AI, отредактировано человеком.

Мы считаем важным открыто информировать о том, в какой степени ИИ использовался в написании материала, поскольку только такой подход способен создавать доверие между нами и читателем.
В сегодняшнем материале мы решили обратиться к совместному отчету MIT Sloan Management Review и Boston Consulting Group, опубликованном в ноябре 2025 г. В данном отчете представлены результаты девятого ежегодного глобального исследования по теме «Искусственный интеллект и бизнес-стратегия», в котором приняли участие 2102 респондентов, представляющих более 21 отрасли и 116 стран.

Большинство управленческих моделей, которые используют компании сегодня, опираются на простое разделение ролей: технологии — это инструменты, а люди — это те, кто думает, принимает решения и несёт ответственность. Агентный ИИ (agentic AI) разрушает это разделение.
В отличие от традиционных ИИ-систем и даже генеративных моделей, агентный ИИ:
  • сам ставит цели и подцели,
  • планирует действия,
  • выполняет многошаговые процессы,
  • обучается в ходе работы,
  • и всё чаще действует как полуавтономный участник организации, а не как пассивный инструмент.
Исследование MIT Sloan Management Review и BCG ценно тем, что оно смещает фокус с технологий на управление. Авторы показывают: ключевые проблемы agentic AI — не вычислительные и не инженерные, а стратегические и организационные.
Именно поэтому компании сталкиваются не с «проблемами внедрения», а с неразрешимыми на первый взгляд противоречиями, которые нельзя закрыть существующими управленческими подходами.
Суть проблемы: не технические сложности, а управленческие противоречия
Противоречия, с которыми сталкиваются руководители, — это не абстрактные теоретические дилеммы. Они проявляются в повседневных решениях, когда организации пытаются встроить агентный ИИ в существующие процессы, структуры и системы ответственности.

Исследование выявляет четыре ключевых стратегических противоречия, каждое из которых отражает конфликт между устоявшимися принципами управления и новой природой agentic AI. Эти противоречия нельзя разрешить раз и навсегда — ими необходимо осознанно управлять.
Источник: сгенерировано в Ideogram
1. Масштабируемость vs адаптивность
(Scalability versus Adaptability)

Традиционные инструменты хорошо масштабируются: они работают предсказуемо, одинаково и эффективно при росте объёма операций. Люди, напротив, плохо масштабируются, но обладают высокой адаптивностью: они умеют импровизировать, учиться на ошибках и справляться с нестандартными ситуациями.

Агентный ИИ находится между этими двумя мирами: он масштабируется, как технология, но при этом способен адаптироваться, как человек.

Это создаёт фундаментальное управленческое противоречие. Стандартизация процессов повышает эффективность, но лишает ИИ возможности учиться и реагировать на исключения. Чрезмерная гибкость, наоборот, снижает предсказуемость и управляемость.
Угроза:
Организации, которые оптимизируют agentic AI исключительно под эффективность и масштаб, теряют его главное преимущество — способность адаптироваться к сбоям, редким случаям и изменяющимся условиям.

Возможность:
Компании, которые находят баланс между стандартизацией и гибкостью, получают одновременно и операционную эффективность, и устойчивость к неожиданным ситуациям.
2. Опыт vs оперативная выгода
(Experience versus Expediency — инвестиционное противоречие)

Инвестиции в технологии и инвестиции в людей традиционно подчиняются разной логике:
  • технологии требуют крупных первоначальных затрат и со временем обесцениваются,
  • люди стоят дорого в содержании, но их ценность растёт с опытом.

Агентный ИИ не вписывается ни в одну из этих моделей, он одновременно:
  • требует значительных начальных инвестиций,
  • нуждается в постоянном дообучении,
  • может терять актуальность из-за дрейфа моделей,
  • и при этом увеличивает свою ценность по мере использования.
Отсюда возникает два инвестиционных противоречия:
Время: «движущаяся цель»
Технология развивается настолько быстро, что слишком ранние инвестиции могут устареть, слишком поздние — лишить компанию стратегического преимущества.
Классические финансовые модели (NPV, амортизация, жизненные циклы) плохо работают, потому что самые ценные сценарии использования agentic AI ещё не придуманы.

Масштаб: платформы vs точечные решения
Организации вынуждены выбирать между крупными платформенными инвестициями с неопределённой отдачей и локальными решениями с понятным ROI, но ограниченным эффектом.

Ключевой риск:
Фокус только на краткосрочной выгоде систематически недооценивает долгосрочную стратегическую ценность agentic AI.
3. Надзор vs автономия
(Supervision versus Autonomy)

Традиционные модели управления предполагают либо полный человеческий контроль, либо полную автоматизацию.

Агентный ИИ не укладывается ни в одну из этих категорий, он должен:
  • работать автономно,
  • но при этом оставаться под контролем,
  • обучаться,
  • и быть подотчётным.
Возникает парадокс: агентов нужно контролировать как сотрудников, но управлять ими как активами.

Исследование показывает, что успешные организации не пытаются выбрать одну модель. Они одновременно используют решения с человеком «в контуре» (human-in-the-loop) и полностью автономные системы — в зависимости от уровня риска, контекста и задачи.

Главный вывод здесь не в поиске баланса, а в создании гибких систем управления, способных постоянно пересматривать уровень автономии.
4. Модернизация vs радикальная переработка процессов
(Retrofit versus Reengineer)

При внедрении agentic AI компании сталкиваются с ещё одним выбором: либо постепенно улучшать существующие процессы, либо полностью переосмысливать их под новые возможности ИИ.

Инкрементальные улучшения: дешевле, быстрее, безопаснее.
Радикальная переработка требует времени и ресурсов, но открывает принципиально новые источники ценности.

Угроза:
Компании, которые ограничиваются лишь улучшением отдельных шагов, рискуют упустить трансформационный эффект.

Возможность:
Организации, которые задаются вопросом «как должен выглядеть процесс, если агентный ИИ — его естественная часть», получают конкурентные преимущества, недоступные при старых моделях работы.
Заключение: почему эти противоречия — новая норма
Ключевой вывод исследования состоит в том, что двойственная природа агентного ИИ — это не дефект, а фундаментальная характеристика. Попытки втиснуть его в существующие управленческие категории неизбежно приводят к потере ценности.
Успешные организации не устраняют эти противоречия, они принимают их как постоянное состояние и строят гибридные управленческие модели, способные работать в условиях неопределённости.

Agentic AI заставляет лидеров ответить на гораздо более глубокий вопрос, чем «какую технологию мы внедряем»: Добавляем ли мы ещё один инструмент — или вводим в организацию нового, нечеловеческого участника?
От ответа на этот вопрос зависит не только стратегия внедрения ИИ, но и то, какой станет организация в следующую эпоху управления.
Другие материалы нашего блога