Чистка «авгиевых конюшен» перед внедрением GenAI

Через что проходят компании до того, как LLM начинают давать масштабируемую ценность

Рубрика: статья

Автор: Артем Пичугин

Время чтения: 10 мин

Степень использования AI в создании этого материала: тема и запрос сформулированы человеком, текст через deep research написан AI, текст отредактирован при помощи AI и человека.

Мы считаем важным открыто информировать о том, в какой степени ИИ использовался в написании материала, поскольку только такой подход способен создавать доверие между нами и читателем.
Метафора «авгиевых конюшен» полезна тем, что она точно описывает реальную проблему внедрения GenAI в компаниях: узкое место почти никогда не находится в выборе модели. На практике организации чаще упираются в накопленный организационный долг — в данные, процессы, права доступа, риски, роли и управляемость.
Если опираться на свежие отчеты и исследования (август 2025 – февраль 2026), подготовительная работа перед масштабированием GenAI обычно сводится к шести типовым зонам:
  1. Shadow AI и стихийная автоматизация — сотрудники уже используют AI, даже если компания формально этого не разрешила.
  2. Знания и данные как «кладбище документов» — корпоративная база знаний часто не готова к режиму, в котором данные нужно постоянно верифицировать.
  3. Риски, комплаенс и IP — агентность AI растет быстрее, чем управленческие и защитные механизмы.
  4. Платформа вместо «зоопарка пилотов» — переход из пилота в production остается главным бутылочным горлышком.
  5. Процессы и роли — компании учат людей пользоваться AI, но не всегда перепроектируют саму работу.
  6. Метрики, доказуемость и доверие — рост доступа к AI-инструментам еще не означает регулярное использование и подтвержденный эффект.
1. Shadow AI и «стихийная автоматизация»
BCG в своем отчете “AI at Work: Is Asia Pacific Leading the Way?” говорит о том, что значимая часть внедрения GenAI происходит не через централизованные программы, а неформально, на уровне отдельных сотрудников. И это важно воспринимать не как нарушение дисциплины, а как нормальное поведение системы: люди выбирают самый удобный инструмент, если официальный путь слишком медленный или неудобный.
Один из самых показательных сигналов — цифра, о которые мы писали и в предыдущих статьях: 58% сотрудников заявляют, что будут использовать AI-инструменты даже в том случае, если компания официально их не предоставляет.
Почему это критично:
  • у компании появляется несанкционированный канал обработки данных;
  • растет риск утечки чувствительной информации;
  • появляются локальные автоматизации, которые невозможно наблюдать и поддерживать;
  • ИТ, ИБ и бизнес начинают видеть разную картину происходящего.
При этом проблема не сводится к запретам. BCG говорит об еще одной важной вещи: даже при высокой готовности сотрудников использовать AI, только 57% респондентов говорят, что их компании реально перестраивают рабочие процессы под этот сдвиг. То есть инструмент уже в работе, а организационная модель — еще нет.
Перед масштабированием GenAI компании обычно нужно сделать три базовых шага:
  • дать санкционированный корпоративный канал доступа к AI (иначе shadow AI станет нормой);
  • встроить текст правил использования ИИ в пользовательский путь — что можно, что нельзя, что можно при каких условиях;
  • реализовать процессы мониторинга: логирование, типовые сценарии использования, источники данных, инциденты.
Иными словами, задача здесь — сделать безопасный путь самым удобным.
2. Знания и данные как «кладбище документов»
Один из новых трендов по управлению корпоративными знаниями дает Gartner: организации больше не могут по умолчанию считать, что данным можно доверять или что они созданы человеком. Это фундаментальный сдвиг, который произошел на наших глазах.
Почему это важно:
  • объем AI-сгенерированного контента быстро растет;
  • внутри компании все сложнее отличить проверенное знание от непроверенного;
  • старые “базы знаний” часто создавались без владельцев, SLA и требований к актуальности.
Для многих организаций это и есть настоящая «конюшня»: документы копились годами, но не было ни единого стандарта происхождения данных, ни статусов актуальности, ни понятного источника истины.
Gartner фактически подталкивает компании к режиму zero-trust data governance: данные, знания и контент нужно не просто хранить, а верифицировать, аутентифицировать и маркировать. Это уже необходимое условие работы в среде, где AI-контент становится массовым.
Отдельно важен еще один риск, на который указывает Gartner: рост объема непроверенных AI-данных повышает вероятность того, что ответы моделей начинают хуже отражать реальность. На уровне корпоративных систем это выглядит очень понятно: падает качество ответов RAG-систем, растет шум, снижается доверие пользователей.
Что обычно входит в “чистку” слоя знаний перед RAG и агентными сценариями?
В практической работе это почти всегда означает:
  • реестр критических источников под приоритетные бизнес-кейсы;
  • появление владельцев контента и понятный цикл обновления;
  • метаданные и каталогизацию;
  • маркировку AI-сгенерированных материалов;
  • правила доступа и использования для разных ролей.
Здесь важно не стремиться “очистить все документы компании”. Рабочий путь — идти от кейсов, а не от абстрактной идеальной базы знаний.
3. Риски, комплаенс, интеллектуальная собственность: превращение страхов в конвейер
Deloitte в январском отчете 2026 года фиксирует сдвиг, который сейчас виден почти во всех крупных организациях: они все планируют быстрое движение от экспериментов к масштабу, а механизмы управления и защиты не успевают за темпом внедрения.
Особенно показателен разрыв в агентных сценариях:
  • 74% компаний планируют внедрить agentic AI в течение двух лет;
  • только 21% сообщают о зрелой модели управления автономными агентами.
Это и есть типичная типичная проблема перед масштабированием: организация хочет автономность и скорость, но не подготовила:
  • границы полномочий;
  • правила доступа к системам;
  • аудит и журналирование;
  • процедуры эскалации;
  • kill-switch и обработку инцидентов.
Важно и то, что ключевые опасения компаний в отчетах Deloitte — это не качество промптов, а именно governance-риски: приватность, безопасность данных, юридические и регуляторные ограничения, надзор, объяснимость.
Что меняется в подходе? На этом этапе полезно перейти от логики “страхи и запреты” к логике конвейера управления рисками. Иначе governance превращается в узкое место и начинает тормозить любой полезный кейс.
Рабочий вариант — встроить управление рисками в стандартный путь разработки и внедрения:
  • risk review как часть цикла разработки, а не как отдельный комитет раз в квартал;
  • RBAC и ограничения действий для AI-агентов по умолчанию;
  • аудит, логирование и эскалации как базовый слой платформы;
  • kill-switch и fallback-сценарии для критичных процессов.
Именно здесь проходит граница между экспериментами и реальной эксплуатацией.
4. Платформа вместо «зоопарка пилотов»
Одна из самых частых проблем корпоративного AI — большое количество пилотов и очень ограниченное количество production-систем. Deloitte формулирует это достаточно конкретно: переход от пилота к production — один из ключевых шагов для извлечения ценности, и именно здесь многие компании застревают.
Пилот легко запустить, потому что он локальный:
  • можно обойти часть правил;
  • можно сделать ручную интеграцию;
  • можно временно не думать о поддержке и масштабируемости.
Продакшен требует другого уровня дисциплины: интеграций, наблюдаемости, безопасности, поддержки, SLA, контроля стоимости.
Deloitte дает полезную числовую рамку:
  • только 25% респондентов перевели 40% и более своих AI-экспериментов в production;
  • при этом 54% ожидают достичь этого уровня в ближайшие 3–6 месяцев.
Это означает, что в ближайший период многие компании будут массово переносить эксперименты в промышленный контур. И именно на этом этапе отсутствие платформенного подхода начинает дорого стоить.
McKinsey дополняет картину с другой стороны: AI используется широко, но почти две трети организаций еще не начали масштабирование на уровне предприятия.
Проблема здесь чаще всего не в отсутствии идей, а в отсутствии инфраструктурного фундамента для повторяемого внедрения.
Что обычно означает платформенная чистка? Если упростить, речь идет о четырех слоях:
  • единый слой доступа к моделям и политик безопасности;
  • интеграции с корпоративными системами, чтобы кейсы не оставались “ручными”;
  • наблюдаемость (качество, риски, стоимость, инциденты);
  • стандартный путь “POC → production” с критериями готовности.
Хороший маркер зрелости: команда не каждый раз собирает внедрение с нуля, а использует типовой, повторяемый контур.
5. Процессы и роли: самая болезненная часть
Даже если платформа есть, а доступ к инструментам выдан, остается самый сложный слой — сама работа. И здесь Deloitte в том же отчете показывает очень важную цифру: 84% компаний еще не перепроектировали рабочие места и природу работы под AI. Это ключевой разрыв. Многие организации делают ставку на обучение (AI literacy) — что хорошо — но не меняют:
  • саму логику процесса;
  • точки контроля;
  • распределение ролей;
  • критерии результата.
В другой части отчета Deloitte мы видим следующее:
  • 34% в целом глубоко переосмысляют свои продукты и бизнес модели, а 30% организаций перепроектируют ключевые процессы вокруг AI;
  • 37% используют AI поверхностно, почти не меняя базовую операционную механику.
На практике это дает локальные улучшения, но не системный эффект. Люди действительно могут работать быстрее, но компания в целом не получает нового уровня производительности, потому что процесс остается спроектирован под старую архитектуру труда.
BCG показывает похожий разрыв с другой стороны: готовность сотрудников высокая, а организационная перестройка запаздывает. Это и создает эффект, когда инструменты есть, а управляемого результата — нет.
Что обычно делают компании, которые выходят из этого тупика? Обычно они идут от пересборки конкретного процесса:
  • проектируют новый контур процесса (где AI, где человек, где проверки и эскалации);
  • пересматривают роли и ответственность (включая ИТ, ИБ, юрблок, владельцев процесса);
  • меняют KPI — с метрик использования инструмента на метрики результата процесса.
Именно здесь GenAI начинает работать как часть операционной модели.
6. Метрики, доказуемость и доверие
Отдельная проблема, которую часто недооценивают, — разрыв между доступом к AI и реальным использованием. Отчет Deloitte содержит следующие данные:
  • за год доля сотрудников с санкционированным доступом к AI выросла примерно на 50% (до ~60%);
  • но среди тех, у кого доступ уже есть, менее 60% используют AI в ежедневной работе, и эта цифра почти не растет.
Это важный управленческий сигнал. Выдать доступ — это еще не внедрение. Это только техническое условие, но не изменение поведения и не доказанный бизнес-эффект.
Дополнительную трезвость дает исследование NBER (февраль 2026): при высоком уровне использования AI в компаниях (около 70%) большинство руководителей оценивают эффект за последние три года как минимальный, а ожидаемый прирост продуктивности в ближайшие три года — как умеренный (в среднем около 1,4%).
Это не означает, что AI не работает. Скорее наоборот: это означает, что эффект не возникает автоматически. Он появляется там, где одновременно меняются данные, процессы, роли, контур управления и контроль качества.
Именно поэтому тема доверия к данным и знаниям (в логике Gartner) напрямую связана с adoption: если пользователи не уверены в качестве ответов, источниках и границах использования, ежедневная работа не закрепляется.
Обычно имеет смысл заранее запустить базовый набор измерений по четырем контурам:
  • Качество: точность, привязка к источникам, корректные отказы, доля ручных исправлений.
  • Риск: нарушения политик, PII/IP-инциденты, эскалации, исключения.
  • Процесс: время цикла, throughput, узкие места, частота возвратов.
  • Стоимость: юнит-экономика на запрос/кейс, стоимость контроля качества, стоимость поддержки.
Зрелая система метрик здесь нужна не для отчетности ради отчетности, а как санитарный контроль: без нее масштабирование почти всегда теряет управляемость.
Заключение
Если собрать все вместе, то подготовка к масштабируемому внедрению GenAI обычно выглядит не как “проект по внедрению модели”, а как последовательная пересборка организационного контура:
  1. Инвентаризация текущей реальности. Где уже есть shadow AI, какие кейсы действительно важны, какие данные нужны, где основные риски и ограничения.
  2. Санация слоя знаний и данных. Критические источники, владельцы, статусы, метаданные, маркировка AI-контента, правила доступа и верификации.
  3. Платформа и конвейер внедрения. Стандартизированный путь “эксперимент → production”, наблюдаемость, контроль качества, аудит и управление рисками.
  4. Перепроектирование процессов и ролей. Новый контур работы, перераспределение ответственности, изменение KPI и внедрение рабочих практик, а не только инструментов.
Если компания идет в сторону агентных сценариев, этот порядок становится еще более критичным. И здесь хорошо ложится тезис Bain: агентность требует модернизации архитектуры, данных и governance; без этого безопасное масштабирование не взлетает.
Если у вас есть потребность организовать дорожную карту внедрения ИИ или обучения сотрудников компании, достаточно позвонить нам или заполнить форму на нашей главной странице, и мы с вами свяжемся.
Также приходите знакомиться лично на наши бесплатные мероприятия.
Другие материалы нашего блога