Где ИИ можно автоматизировать полностью, а где нужен human-in-the-loop

Как разметить бизнес-функции и проекты по риску, обратимости ошибки и доле исключений

Рубрика: статья

Автор: Артем Пичугин

Время чтения: 11 мин

Степень использования AI в создании этого материала: тема и управленческий фокус заданы человеком; подбор актуальных источников, структурирование и черновая версия подготовлены с помощью AI; редактура выполнена человеком и AI.

Мы считаем важным открыто информировать о том, в какой степени ИИ использовался в написании материала, поскольку только такой подход способен создавать доверие между нами и читателем.
Один из главных вопросов в компаниях сейчас звучит так: «В каких процессах машине можно отдать исполнение целиком, а где человек обязан остаться внутри рабочего контура?». Риск-ориентированный подход NIST прямо подталкивает к тому, что ответ зависит от контекста применения, вероятности ошибки и масштаба последствий: AI risk management строится вокруг конкретного сценария использования, а не вокруг абстрактной идеи «автоматизируем департамент» (NIST AI RMF, NIST AI 600-1, 2024).

Из этой логики следует простое правило. Если вход стандартизирован, правила явные, качество выхода легко наблюдать, ошибку дешево откатить, а исключения редки, процесс можно переводить в сквозную автономную обработку без участия человека в каждой транзакции. Если же решение затрагивает права людей, комплаенс, безопасность, значимые деньги или стратегические исключения, то нужен осмысленный human-in-the-loop, что особенно явно закреплено, например, в требованиях по “human oversight” для “high-risk AI systems” в EU AI Act, Article 14.

Практический вывод для руководителя состоит в том, что внутри почти любой функции сосуществуют как минимум две зоны. Первая хорошо автоматизируется и измеряется по доле сквозной обработки, SLA и стоимости операции. Вторая требует человеческой интерпретации, права остановки и полной операционной ответственности.
Поэтому зрелый AI-проект начинается не с лозунга про замену функции, а с карты микропроцессов и границ ответственности. Граница проходит между типами решений, ценой ошибки и обратимостью последствий.
Автоматизация подпроцессов
Когда компании обсуждают автоматизацию, они часто мыслят слишком крупными сущностями: «автоматизируем клиентский сервис», «автоматизируем HR», «автоматизируем юридическую функцию». Но один и тот же департамент почти всегда содержит и потоковые рутинные операции, и исключительные случаи с высокой ценой ошибки. Поэтому корректная единица проектирования здесь не функция целиком, а конкретный подпроцесс с понятным входом, выходом, SLA и типом ответственности.

Это хорошо согласуется с рамкой NIST. В профиле NIST AI 600-1, 2024 прямо сказано, что риск зависит от сценария применения, а ресурсы управления им стоит распределять по тяжести и вероятности негативных последствий. Там же отдельно зафиксировано, что часть рисков возникает не только из-за самой модели, но и из взаимодействия человека и системы. Иными словами, даже технически одинаковый LLM-контур может быть приемлем в задаче маршрутизации заявок и неприемлем в решении по найму, кредиту или отказу в страховом кейсе.

Перед запуском проекта имеет смысл проверить подпроцесс по нескольким параметрам:
  • насколько стандартизирован вход,
  • насколько однозначно определяется хороший результат,
  • как быстро обнаруживается ошибка,
  • можно ли ее безболезненно откатить,
  • какова доля исключений.

Чем выше стандартизация и обратимость, тем ближе процесс к полностью автономному режиму. Чем выше цена исключения и неопределенность, тем ближе он к контуру с обязательным участием человека.

На этом шаге многие компании совершают одну и ту же ошибку: сначала выбирают «функции для ИИ», а уже потом думают о режиме контроля. Логика должна быть обратной. Сначала определяется тип решения и требуемый режим ответственности, и только потом становится видно, можно ли строить автономный режим, нужен ли режим ассистента или процесс должен остаться управляемым человеком с точечной поддержкой со стороны модели.
Где возможна полная автоматизация
Полная автоматизация уместна там, где машина выполняет повторяющуюся операцию по правилам. Это процессы с большим объемом однотипных случаев, коротким циклом обратной связи и понятной метрикой качества. В таких контурах критично то, что система стабильно соблюдает правила маршрутизации, формат, допустимые пороги и сроки обработки.

Хороший ориентир здесь дает клиентский сервис. По данным Gartner, 2024, 85% лидеров клиентского сервиса планировали в 2025 году исследовать или пилотировать разговорный генеративный ИИ для работы с клиентами. Это не означает, что вся функция поддержки становится безлюдной. Но это сильный сигнал о зрелости типовых низкорисковых обращений как первой зоны для автономности: статусы, FAQ, простая маршрутизация, первичная классификация запроса и создание тикета.

Та же логика работает и в других внутренних функциях. В финансах это может быть извлечение полей из счета, маршрутизация на следующий этап и др. В HR это может быть назначение интервью, сбор недостающих документов и коммуникация по шаблону. В юридических операциях это выделение сущностей в договоре и сортировка кейсов по уровню отклонения от согласованных формулировок. В операционном контуре это категоризация заявок, создание задач, обновление CRM и контроль полноты данных. Это не нормативный список, а паттерн: полностью автоматизируются не функции, а стандартизированные подпроцессы внутри них.

Важно и другое: полная автоматизация не равна отсутствию человека в системе. Человек просто перестает участвовать в каждой штатной транзакции. Его роль смещается на проектирование правил, мониторинг метрик, контроль дрейфа качества, разбор редких исключений и пересмотр порогов. Иначе говоря, компания убирает человека из массового исполнения, но не убирает ответственность за качество процесса.
Где нужен human-in-the-loop
Human-in-the-loop нужен там, где организация не может позволить себе передать финальное решение машине без осмысленного человеческого участия. Самый очевидный контур здесь — высокорисковые сценарии. Например, в EU AI Act, Article 14 человеческий надзор рассматривается как обязательный элемент для high-risk AI systems. Смысл этой нормы важен и за пределами европейского регулирования: если система влияет на права, безопасность, доступ к услугам, карьерные возможности или существенные финансовые последствия, человек должен иметь возможность понять, что делает система, заметить сбой, остановить его и при необходимости отменить результат.

NIST усиливает эту мысль с другой стороны. В NIST AI 600-1, 2024 отдельно отмечается, что часть рисков возникает из взаимодействия человека и AI, включая склонность некритично доверять рекомендациям автоматизированной системы и чрезмерную опору на систему. На практике это означает простую вещь: даже если у компании есть формальный этап согласования, он бесполезен, если человек не понимает ограничения модели, не видит контекст, не имеет времени на разбор кейса или воспринимает рекомендацию системы как по умолчанию правильную.

Поэтому в кредитных решениях, отказах по страховым требованиям, юридических исключениях, значимых ценовых отклонениях, разборе fraud-сигналов, вопросах найма и увольнения, медицинской сортировке, safety-инцидентах и регуляторной отчетности человек должен оставаться внутри как реальный участник процесса. Здесь модели отлично работают как слой подготовки: собрать факты, подсветить риск, предложить черновик решения, объяснить, какие правила сработали. Но финальное действие остается за человеком, потому что именно он несет ответственность за баланс между правилами, контекстом и исключением.
Если ошибку дорого откатить или решение затрагивает права людей, человек должен оставаться в контуре не формально, а операционно.
Как выглядит контур бизнес-функций
Из-за этого почти любая функция в компании распадается на несколько технологических полос. Внизу находится автономная полоса: потоковые операции по правилам, где нужна высокая пропускная способность и низкая стоимость операции. Выше находится полоса с обязательным подтверждением: кейсы, где модель может предложить решение, но человек обязан подтвердить, отклонить или доработать вывод. Еще выше находится контур, управляемый человеком: стратегические, спорные или высокорисковые случаи, где ИИ остается только инструментом анализа и подготовки материалов.
Источник: сгенерировано в Nano Banana Pro
Возьмем для примера финансы. Автономно можно вести извлечение данных из документов, сверку реквизитов, первичную маршрутизацию и обработку кейсов, которые укладываются в согласованные правила и лимиты. Но блокировка платежа, разрешение на исключение из внутренней политики, решение по спорной задолженности или трактовка нестандартного контракта чаще требуют обязательного подтверждения или полностью человеческого режима. То же самое в HR: календарная логистика и формальная проверка полноты данных автоматизируются хорошо, а отказ кандидату, оценка рисков найма и обсуждение компенсационного исключения остаются в человеческом контуре.

В клиентском сервисе этот разрез особенно нагляден. Рутинные статусы, типовые запросы и стандартные инструкции переводятся в автономную полосу довольно быстро. Но эскалации по риску оттока клиента, VIP-клиентам, эмоционально напряженным кейсам, юридическим претензиям или возвратам с отклонением от внутренней политики почти всегда требуют человека. Gartner в марте 2025 года отдельно подчеркивал, что агентный ИИ меняет роль сервиса и позволяет людям уходить от рутинных задач к более значимой работе, а не просто устраняет человеческое участие как класс.

Отсюда следует важный управленческий принцип. Формулировка проекта должна звучать не как конкретная гипотеза по полосе процесса. Например: полностью автоматизируем назначение интервью и документное сопровождение в найме, но оставляем решение о финальном отказе и компенсационном исключении в human-in-the-loop. Такая постановка одновременно быстрее и лучше управляется с точки зрения риска.
Как запускать такие проекты
Самый прагматичный порядок запуска выглядит так. Сначала компания ищет поток, где:
  • много однотипных кейсов,
  • невысока цена ошибки,
  • есть быстрый контур обратной связи,
  • можно надежно измерять долю сквозной обработки, долю ручных вмешательств, стоимость обработки кейса и время до результата.

Это лучший кандидат на первый автономный контур: там можно быстро доказать экономику и не разрушить доверие к инициативе одной дорогой ошибкой.

Затем проект нужно переводить с уровня «модель отвечает в чате» на уровень перепроектирования рабочего процесса. В этом смысле полезен вывод McKinsey, 2025: компании массово внедрили генеративный ИИ, но многие все еще не видят заметного бизнес-эффекта, потому что горизонтальные сценарии помощника распространились быстрее, чем сценарии, привязанные к конкретным функциям и процессам. Для бизнеса это прямой сигнал: ценность появляется не там, где ИИ просто есть, а там, где переустроен сам путь работы, включая маршрутизацию исключений, контрольные точки, SLA и экономическую ответственность.

Следующий шаг — сразу проектировать режим контроля. Даже автономной полосе нужны стоп-критерии, журнал решений, пороги эскалации, владелец процесса и понятный способ быстро вернуть кейс человеку. А полосе с обязательным подтверждением нужна не декоративная кнопка согласования, а достаточный контекст для решения, время на проверку и право не согласиться с рекомендацией модели. Если этого нет, организация создает только видимость контроля.

Именно поэтому зрелый портфель AI-проектов обычно развивается волнами. Сначала компания поднимает долю автономной обработки в низкорисковых потоках. Затем накапливает библиотеку исключений, улучшает правила и переносит часть случаев из полосы с обязательным подтверждением в сквозную автоматическую обработку. Но при этом всегда остается слой решений, который не должен исчезать из человеческого контура, потому что там живут ответственность, интерпретация и право на исключение.
Если смотреть на AI-автоматизацию через призму бизнес-функций целиком, почти любая дискуссия быстро уходит в абстракции. Если же смотреть на типы решений внутри процесса, картина становится намного практичнее. Полная автоматизация оправдана там, где операция повторяема, результат наблюдаем, ошибка обратима, а исключения редки. Human-in-the-loop обязателен там, где решение несет правовые, финансовые, кадровые, безопасностные или стратегические последствия и требует осмысленной ответственности.

Поэтому ключевая задача руководителя сейчас в том, чтобы собрать карту полос внутри процессов: где строим автономный режим, где оставляем обязательное подтверждение человеком, а где используем ИИ только как инструмент поддержки решения. Именно такая карта обычно и становится основой для реалистичной операционной модели внедрения ИИ.
Если вам хочется глубже погрузиться в тему оптимизации промптов, агентных воркфлоу и проектных инструкций для LLM-систем, то мы можем организовать под вас соответствующее обучение. Достаточно позвонить нам или заполнить форму на нашей главной странице, и мы с вами свяжемся.
Также приходите знакомиться лично на наши бесплатные мероприятия. Ближайшее будет 31 марта, регистрация здесь.
Другие материалы нашего блога