"Я отношусь к GenAI внутри компании как к мощному инструменту, которому сначала нужно выдать понятное ТЗ, а уже потом — доступ к процессам."

Интервью с Донатом Фетисовым

Рубрика: интервью

Автор: Елена Третьякова

Время чтения: 12 мин

Степень использования AI в создании этого материала: несколько предложенных ИИ вопросов были использованы, генерация вступительной части.

Мы считаем важным открыто информировать о том, в какой степени ИИ использовался в написании материала, поскольку только такой подход способен создавать доверие между нами и читателем.
Фото из личного архива Доната Фетисова
Недавно мы пообщались с Донатом Фетисовым, Директором по стратегии управления данными «Ростелекома». Донат с 2013 года занимается большими данными и ИИ на руководящих позициях в разных компаниях, и нам было очень интересно узнать его профессиональное мнение по некоторым вопросам.

Поговорили о многом: о качественной стратегии данных, типовых проблемах работы с данными в российских компаниях и их организационных причинах, о культуре принятия решений на основе данных, о том, как выстраивать доверие к GenAI-решениям внутри компании, о необходимых навыках сотрудников, о ключевых трендах в данных и ИИ на горизонтах 3-7 лет и пр.
— Донат, расскажите о своем профессиональном бэкграунде.

— Расскажу по траектории “сверху-вниз” — от нового к старому. Сейчас я руковожу направлением стратегии управления данными в офисе CDO Ростелекома. По сути, моя зона — это «как в компании в принципе должны жить данные»: целевая модель, доменная логика, дата-продукты, роли и процессы вокруг них, требования к качеству и безопасности. Команда ИИ у нас выделена отдельно, мы периодически синхронизируемся по ключевым решениям, и я слежу за тем, чтобы стратегия по данным и развитие ИИ не расходились принципиально в разные стороны.

До «Ростелекома» у меня было несколько больших блоков опыта. В билайне я проработал почти пять лет: сначала как директор по архитектуре и инфраструктуре платформы управления данными. Это Hadoop-экосистема, Kubernetes, ClickHouse, Kafka, CI/CD, инструменты для data engineers и data scientists плюс архитектурная практика и чаптер дата-инженеров. Затем я перешёл в контур рисков информационной безопасности и руководил командами SOC, Anti-DDoS, DLP, защиты данных, Red Team и R&D по безопасности.

До этого в Сбербанке мы запускали лабораторию данных, первый промышленный кластер Big Data и выстраивали формат R&D на данных. Кстати, с улыбкой сейчас вспоминаю, что в Лаборатории данных, первый кластер у нас был смешного, по нынешним меркам, размера — сейчас они на порядки больше… Но даже в этом “микроскопическом” кластере у нас быстро собралась очередь инициатив, которым не хватало мощности классических хранилищ.

В «Северстали» я с нуля собирал техническую часть команды под промышленную аналитику и ML: инфраструктура, инженеры, работа с цехами, вовлечение технологов. Стартовал в теме данных я еще в 2013 году как системный архитектор, который делает платформы и интеграции, а постепенно сместился к роли человека, который отвечает за стратегию работы с данными, операционную модель и команды вокруг этого. Если совсем коротко, я тот человек, которого в разное время звали поговорить то про бигдату, то про безопасность, а теперь всё чаще — “пойдём, поговорим про данные и ИИ”.
— Скажите, чем Директор по стратегии управления данными отличается от CDO? На чем вы фокусируетесь, за что отвечаете?

— Отталкиваясь от классического описания роли CDO, могу сказать, что моя текущая позиция — это его стратегическое ядро. Я руковожу направлением стратегии управления данными в Центре управления данными «Ростелекома». В моей зоне ответственности — целевая модель работы с данными в масштабе группы, рамка для архитектурных решений, операционная модель, требования к качеству и безопасности данных, формирование целевой карты проектов и принципов работы с доменами и дата-продуктами. При этом операционное управление платформой и командами распределено между руководителями отдельных направлений: платформа данных, дата-продукты, data governance, MDM, AI R&D и так далее. Я работаю внутри этого контура как внутренний стратегический партнёр для и.о. CDO: помогаю собрать целостную картинку, задать общие правила игры, выстроить доменную логику и портфель инициатив, в который уже «вписываются» проекты бизнес-направлений, ИТ, ИБ и ИИ.

Меня в этой роли изначально привлекла именно возможность работать не только с очередной платформой или отдельной функцией, а с тем, как данные устроены в компании в целом: от доменной модели и принципов владения до операционной модели и взаимодействия с бизнесом. Это возможность влиять на то, чтобы данные были не набором разрозненных систем и проектов, а сквозной функцией компании. Часто по факту это тот человек, к которому приходят и бизнес, и ИТ, когда нужно “разрулить” противоречивые ожидания вокруг данных и/или ИИ.

— Как, на ваш взгляд, должна выглядеть хорошая стратегия по работе с данными? На какой период ее имеет смысл делать?

— Я обычно говорю так: «Стратегия по данным — это не про «какой кластер мы купим», а про договоренность топ-команды, какую роль данные играют в бизнесе, и как мы для этого всё организуем». Кластер там, конечно, тоже есть, но это уже следствие, а не центр вселенной. В ней обязательно должны быть несколько вещей. Во-первых, зафиксированные бизнес-задачи и кейсы, ради которых вообще всё затевается. Во-вторых, целевая операционная модель: роли, процессы, зоны ответственности, где заканчивается «зона данных» и начинаются контуры продуктов, ИТ и ИБ. В-третьих, рамка для архитектурных решений: доменная модель, принципы владения данными, требования к качеству, безопасности и доступу. И, конечно, приоритизированный roadmap с понятными метриками эффекта, а не просто список инициатив.

По горизонту я бы разделил: образ того, куда компания хочет прийти с точки зрения данных и ИИ, — это 5–7 лет. Рабочий горизонт самой стратегии — около трёх лет с ежегодным пересмотром. Детальные планы по инициативам, ресурсам и срокам имеет смысл строить на 12–18 месяцев вперёд, чтобы оставаться управляемыми и в то же время гибкими.
— Какие вызовы по работе с данными остаются в российских компаниях и какие пути решения вы видите?

— Когда смотришь на разные отрасли, в том числе там, где я работал, набор вызовов довольно похожий. С одной стороны, почти везде звучат формулировки про «бизнес на данных» и «цифровую трансформацию», с другой — в операционке это не всегда поддерживается. Часто виден разрыв между декларациями и реальностью, фрагментация данных по вертикалям, несколько «версий правды» и очень разный язык у бизнес-юнитов, ИТ и ИБ.

Есть ещё несколько типичных сюжетов. Во многих компаниях не хватает сильного среднего слоя в контуре данных — людей, которые умеют переводить стратегию в работающие практики. Часто нет устойчивой привычки доверять данным в принятии решений: цифры используют для иллюстрации, но не как основу выбора.

Параллельно растет давление: импортозамещение, новые требования регулятора, ИБ, хайп вокруг ИИ. Все эти симптомы хорошо показывают, почему роль CDO должна быть по-настоящему executive-уровня. Нужен человек с мандатом, который будет погружаться в ключевые бизнесы и смотреть на них через «следы на плоскости данных». Не только через призму отдельных систем. Рабочие ответы лежат в организации: договориться на уровне топ-команды о целевой операционной модели, перейти к доменной логике и дата-продуктам с понятными владельцами, осознанно выращивать лидеров в контуре данных, выстраивать культуру доверия к данным. Во всех местах, где что-то действительно сдвигалось, это всегда начиналось с договоренностей на С-уровне, а не с установки ещё одной системы. Так появляется единая рамка, в которой данные и ИИ развиваются совместно с ИТ и ИБ, а не в конфронтации.
— Донат, а как менялась культура работы с данными в компаниях, где вы работали? Какие, на ваш взгляд, важные составляющие «идеальной культуры»? Какие барьеры в построении такой культуры возникают чаще всего и как с ними работать?

— Если оглядываться назад, во всех компаниях, где я работал, путь был примерно от «хранилищ и отчётности» к более осознанному использованию данных. В Сбербанке, когда я присоединился к команде, классические хранилища уже были. Мы создавали лабораторию данных и первый Big Data-кластер как площадку для R&D: появилось место, где можно было быстро проверять гипотезы на данных, а не только заказывать новые отчёты. В Severstal Digital мы шаг за шагом выносили ML из стадии «красивая витрина пилотов» в реальные цеха, добиваясь измеримого эффекта и меняя отношение к решениям с нечеткой логикой. В билайне мы смогли федерализировать экспертизу: платформа управления данными стала сервисом для всей компании, а чаптер дата-инженеров задал общие стандарты и практики. В «Ростелекоме» сейчас выстраиваем доменную и платформенную модель, где данные — это не просто ЦХД, а сквозная функция группы.

Если говорить об идеальной культуре, для меня там есть три простых признака. Первое — решения действительно принимаются на данных, а не только на экспертном мнении. Второе — люди готовы прозрачно публиковать и переиспользовать данные, а не держать «свои цифры» в закрытых контурах. Третье — инициативы по данным оцениваются через TCO (Total Cost of Ownership) и эффект, а не только через «интересно/модно».

Частые барьеры тоже довольно типичны: внутренняя политика между вертикалями, нежелание полной прозрачности, отсутствие четких ожиданий от данных сверх «работающей отчётности», дефицит людей, которые умеют переводить бизнес-задачи в постановку на данных, тяжёлый технический долг и сложность сетевой инфраструктуры. Лучше всего с этим работает комбинация: работа с С-уровнем как с командой, понятная модель владения данными, практика регулярных обзоров дата-инициатив и эффектов. И важно, чтобы на executive-уровне была фигура, которая умеет соединять интересы разных вертикалей и смотреть на бизнес через данные — по сути это и есть ядро роли CDO.

— Какими своими проектами / проектами своей команды вы гордитесь? Как они повлияли на бизнес / компанию?

— Говоря совсем честно, я горжусь не отдельными “витринными” кейсами, а историями, где данные перестают быть чисто технической темой и входят в операционную модель компании. Красивый дашборд на слайде сам по себе мало что меняет, если за ним нет изменений в том, как люди работают каждый день.

В Сбербанке мы запустили Лабораторию данных и первый Big Data-кластер как площадку для R&D: подразделения начали приходить с гипотезами, а не только за отчетами. Это сильно поменяло отношение к данным как к инструменту для экспериментов. В Severstal Digital мы вывели ML из стадии “бутика пилотов” в цех: появились решения, где эффект уже измерялся в ощутимых для производственников суммах. Благодаря этому у людей «на земле» появилось доверие к тому, что модели могут помогать в реальной работе. В билайне платформа управления данными стала сервисом для всей компании, а не одного центра экспертизы, а чаптер дата-инженеров позволил масштабировать практики без хаоса. В контуре ИБ мы начали опираться на метрики и статус процессов вместо ручной отчётности, и диалог про безопасность стал предметнее. В «Ростелекоме» я сейчас отвечаю за стратегию управления данными и переход к федеративной модели: домены, владельцы, платформенные сервисы. Для меня это, по сути, одна и та же линия — от финансов через промышленность к телекому, где данные постепенно становятся нормальной частью операционной модели, а не еще одной IT-инициативой. Цель простая: чтобы данные работали как сквозная функция группы, а не как набор отдельных систем и проектов.

— А какой проект у вас был самым неудачным и не оправдавшим надежды? Из-за чего чаще всего проекты проваливаются?

— Сложно выбирать один показательный пример — у меня, как и у всех, кто берет на себя ответственность, хватает неудач. Что ж, пускай это будет проект по автоматической разметке данных, который так и остался на стадии PoC. Задумка была сильной: система должна была сама классифицировать данные, строить риск-профиль и помогать по-новому смотреть на массивы информации через призму чувствительности и рисков. Это как раз тот случай, когда презентация получилась заметно лучше, чем жизнь. На практике мы остановились на прототипе. Постфактум я вижу несколько причин — назову пару-тройку основных: 1) мы переоценили готовность организации к такой глубокой автоматизации и недооценили объем работы по формализации процессов и сценариев для AI; 2) вовлечённые команды были сильно загружены более «горящими» задачами; 3) технологии, которые сегодня относятся к GenAI, тогда были заметно менее зрелыми и доступными.

В целом, дата-проекты чаще всего ломаются не на моделях, а на организации. Когда ждут, что технология сама даст эффект, ответственность размазана, готовность данных и людей переоценена, а портфель перегружен параллельными инициативами, даже честный PoC трудно довести до внятного решения. Мой вывод простой: лучше запускать меньше проектов с сильной ядровой командой. Я теперь гораздо внимательнее смотрю на готовность организации и людей, чем на зрелость самой технологии.
— Давайте немного поговорим про ИИ. Я знаю, вы активный пользователь разных ИИ-шек, но вокруг него столько хайпа. Скажите, чем ИИ, в большей степени даже GenAI, может быть полезен отдельному сотруднику Ростелекома, например? Какими компетенциями надо обладать человеку, чтобы оставаться конкурентоспособным в ближайшие годы?

Постараемся забыть для начала шум вокруг ИИ. Практический ответ может быть таким: для отдельного сотрудника GenAI сегодня — это, по сути, способ снять часть рутины с головы и освободить время на задачи, где нужна именно человеческая экспертиза. Он не отнимает работу, он отнимает скучную часть работы. Самые приземленные и полезные вещи — это всё, что связано с текстом и информацией. Черновики писем, служебных записок, концепций, ответов на запросы, описаний процессов, презентаций. Быстрый разбор больших документов, нормативки, логов, переписки. Черновики кода, конфигураций, SQL-запросов, простых скриптов. Первичный ресерч по технологиям, практикам, регуляторике. В этом смысле корпоративный «Нейрошлюз», наша платформа ИИ-сервисов», с пулом моделей — очень удобный инструмент. При этом важно помнить не только “как применять ИИ”, но и “что ему можно показывать”: служебную и чувствительную информацию, персональные данные клиентов, внутреннюю аналитику — всё это нужно держать внутри корпоративного контура, а не отправлять во внешние сервисы. Это базовая гигиена, которая защищает и сотрудника, и компанию.

Про компетенции на ближайшие годы — список довольно классический, просто требования к нему выросли. Умение чётко ставить задачу и критично принимать результат — неважно, работаете вы с человеком или с моделью. Базовая дата-грамотность и привычка смотреть на мир как на набор данных или потенциальных источников данных. Продуктовое и системное мышление: понимать, как замысел дойдет до пользователя и к чему приведут изменения в системе. Нормальная коммуникация с людьми. И элементарная цифровая гигиена: понимание, какие данные можно использовать и куда их точно не стоит выносить.
В выигрыше будут те, кто умеют осмысленно использовать ИИ как инструмент, а не воспринимают его как «черный ящик, который всё решит за меня».
—  Сейчас многие компании на хайпе хотят прикрутить GenAI к чему угодно. Как, на ваш взгляд, надо действовать, о чем подумать и как выстраивать доверие к GenAI-решениям внутри компании?

— Я отношусь к GenAI внутри компании как к мощному инструменту, которому сначала нужно выдать понятное ТЗ, а уже потом — доступ к процессам. Сначала мы отвечаем себе, «что он делает и как мы это померяем», а уже потом задаемся вопросом, «куда ему можно дать кнопку “в прод”».

Во-первых, не тащить GenAI «ко всему подряд», а честно ответить себе, зачем он нужен в каждом конкретном кейсе. Где у нас много текста и рутины, где нужно быстрее разбираться в документах и базе знаний, где сотруднику нужен «копилот», а не «автоматическое решение». Под каждый такой кейс полезно сразу задавать метрики: время обработки, нагрузку на поддержку, скорость подготовки документов и так далее.

Во-вторых, запускать решения через понятный жизненный цикл: прототип → пилот → масштабирование, а не сразу “всем и везде”. Сначала малый контур и честный эксперимент, потом пилот с явно прописанными правилами: что делает модель, что проверяет человек, какой уровень ошибок допустим, для каких задач GenAI принципиально не используется.

Доверие к GenAI-решениям появляется, когда соблюдается несколько простых вещей. Прозрачность: люди понимают, где в процессе работает модель и чего от неё ждать, без обещаний «магического интеллекта». Human-in-the-loop там, где цена ошибки высока: модель предлагает, человек принимает решение. Понятные правила работы с данными и безопасностью: какие данные можно отправлять, какие нет, где работаем только с внутренними моделями, а внешние сервисы — табу. И механизмы обратной связи и метрик качества: возможность сказать “ответ плохой” и видеть, что система от этого становится лучше. Если GenAI внедрять как усилитель людей, а не как “новый мозг компании”, с понятными задачами, правилами по данным и ролью человека, доверие формируется через ежедневную практику, а не только через красивые презентации.
— Донат, в своем выступлении на VTORNIK.Вечер вы сказали, что внедрение AI часто рассматривают как способ сократить штат, и это ошибочный путь. Расскажите, почему, ведь технологии внедряют, чтобы оптимизировать бизнес, в том числе за счет сокращения людей.

— Технологии действительно помогают оптимизировать бизнес, но, когда сокращение людей становится главной целью AI-проектов, обычно всё идёт не туда.
Как только команда считывает посыл «делаем ИИ, чтобы потом сократить штат», появляется естественная оборонительная реакция. Люди менее охотно делятся знаниями, помогают описывать процессы и данные, честно показывают узкие места.

Вторая проблема — вымывается организационная память: уходят те, кто держал на себе контекст, исключения, неформальные договоренности. В итоге можно автоматизировать процесс, но потерять понимание, как компания реально живет. И всё это ради красивой строчки в Excel про экономию фонда оплаты труда. Я смотрю на ИИ иначе: как на инструмент, который позволяет команде с тем же или немного подросшим штатом обслуживать гораздо больший объём задач и клиентов. Для фронта и операционки — освободить время от рутины под сложные кейсы и работу с клиентами. Для аналитиков и инженеров — меньше рутинного кода и отчётности, больше дизайна решений, работы с архитектурой, качеством данных. Для бизнеса — снизить цену экспериментов и ускорить путь от идеи до пилота. Да, в каких-то местах это приведёт к перераспределению ролей и естественному снижению потребности в отдельных функциях. Но я бы воспринимал это как побочный эффект правильной стратегии, а не как основной KPI. Намного здоровее ставить в цель рост производительности, качества и скорости, а изменения в структуре штата считать следствием. Тогда ИИ становится усилителем людей, а не сигналом «готовьтесь, вас заменят», и доверие к таким инициативам внутри компании строится гораздо легче.
—  Донат, какие технологии или тренды вы считаете наиболее перспективными на ближайшие 3–5–7 лет?

— Я бы разделил картину на несколько горизонтов и попробовал без лишнего романтизма. На горизонте ближайших трёх лет, на мой взгляд, главное — приземление уже существующих подходов. Корпоративные GenAI-копилоты и нейрошлюзы, встроенные в офисные инструменты, разработку, поддержку. Доменная модель и data as a product: домены, владельцы, контракты на данные, а не «ещё один DWH». Нормальный data & AI governance как часть базовой гигиены: качество данных, каталоги, lineage, SLO, правила по ИИ.

Горизонт примерно пяти лет — это переход к AI-native приложениям и агентским системам. Речь про CRM, биллинг, OSS/BSS и другие тяжёлые системы, где ИИ не сбоку, а внутри логики принятия решений и приоритизации. И про набор специализированных агентов, которые помогают не одному человеку в чате, а целому процессу. Параллельно здесь же будет развиваться зрелый LLMOps/AIOps: мониторинг качества моделей, управление версиями, тестирование на галлюцинации и риски, аккуратные развертывания изменений.

На горизонте семи лет я ожидаю сращивание данных, ИИ и «реального мира». Цифровые двойники не только оборудования, но и бизнес-систем: возможность прогонять сценарии на уровне компании. ИИ на краю сети и в устройствах (edge + AI) как основа новых сервисов, особенно для телеком-игроков. И более жёсткое «зашивание» регуляторики и политики по данным/ИИ в архитектуру, когда многие нарушения становятся технически невозможными.

Отдельно я бы отметил анти-тренд. Я довольно скептически отношусь к GenAI как очередной “серебряной пуле”. GenAI, агенты, векторные базы, подход data mesh — это все инструменты. Серебряная пуля в этой истории одна — голова на плечах у людей, которые умеют и горят желанием всё это встраивать в стратегию, операционную модель и реальные процессы компании.
Другие материалы нашего блога