— Донат, а как менялась культура работы с данными в компаниях, где вы работали? Какие, на ваш взгляд, важные составляющие «идеальной культуры»? Какие барьеры в построении такой культуры возникают чаще всего и как с ними работать?
— Если оглядываться назад, во всех компаниях, где я работал, путь был примерно от «хранилищ и отчётности» к более осознанному использованию данных. В Сбербанке, когда я присоединился к команде, классические хранилища уже были. Мы создавали лабораторию данных и первый Big Data-кластер как площадку для R&D: появилось место, где можно было быстро проверять гипотезы на данных, а не только заказывать новые отчёты. В Severstal Digital мы шаг за шагом выносили ML из стадии «красивая витрина пилотов» в реальные цеха, добиваясь измеримого эффекта и меняя отношение к решениям с нечеткой логикой. В билайне мы смогли федерализировать экспертизу: платформа управления данными стала сервисом для всей компании, а чаптер дата-инженеров задал общие стандарты и практики. В «Ростелекоме» сейчас выстраиваем доменную и платформенную модель, где данные — это не просто ЦХД, а сквозная функция группы.
Если говорить об идеальной культуре, для меня там есть три простых признака. Первое — решения действительно принимаются на данных, а не только на экспертном мнении. Второе — люди готовы прозрачно публиковать и переиспользовать данные, а не держать «свои цифры» в закрытых контурах. Третье — инициативы по данным оцениваются через TCO (Total Cost of Ownership) и эффект, а не только через «интересно/модно».
Частые барьеры тоже довольно типичны: внутренняя политика между вертикалями, нежелание полной прозрачности, отсутствие четких ожиданий от данных сверх «работающей отчётности», дефицит людей, которые умеют переводить бизнес-задачи в постановку на данных, тяжёлый технический долг и сложность сетевой инфраструктуры. Лучше всего с этим работает комбинация: работа с С-уровнем как с командой, понятная модель владения данными, практика регулярных обзоров дата-инициатив и эффектов. И важно, чтобы на executive-уровне была фигура, которая умеет соединять интересы разных вертикалей и смотреть на бизнес через данные — по сути это и есть ядро роли CDO.
— Какими своими проектами / проектами своей команды вы гордитесь? Как они повлияли на бизнес / компанию?
— Говоря совсем честно, я горжусь не отдельными “витринными” кейсами, а историями, где данные перестают быть чисто технической темой и входят в операционную модель компании. Красивый дашборд на слайде сам по себе мало что меняет, если за ним нет изменений в том, как люди работают каждый день.
В Сбербанке мы запустили Лабораторию данных и первый Big Data-кластер как площадку для R&D: подразделения начали приходить с гипотезами, а не только за отчетами. Это сильно поменяло отношение к данным как к инструменту для экспериментов. В Severstal Digital мы вывели ML из стадии “бутика пилотов” в цех: появились решения, где эффект уже измерялся в ощутимых для производственников суммах. Благодаря этому у людей «на земле» появилось доверие к тому, что модели могут помогать в реальной работе. В билайне платформа управления данными стала сервисом для всей компании, а не одного центра экспертизы, а чаптер дата-инженеров позволил масштабировать практики без хаоса. В контуре ИБ мы начали опираться на метрики и статус процессов вместо ручной отчётности, и диалог про безопасность стал предметнее. В «Ростелекоме» я сейчас отвечаю за стратегию управления данными и переход к федеративной модели: домены, владельцы, платформенные сервисы. Для меня это, по сути, одна и та же линия — от финансов через промышленность к телекому, где данные постепенно становятся нормальной частью операционной модели, а не еще одной IT-инициативой. Цель простая: чтобы данные работали как сквозная функция группы, а не как набор отдельных систем и проектов.
— А какой проект у вас был самым неудачным и не оправдавшим надежды? Из-за чего чаще всего проекты проваливаются?
— Сложно выбирать один показательный пример — у меня, как и у всех, кто берет на себя ответственность, хватает неудач. Что ж, пускай это будет проект по автоматической разметке данных, который так и остался на стадии PoC. Задумка была сильной: система должна была сама классифицировать данные, строить риск-профиль и помогать по-новому смотреть на массивы информации через призму чувствительности и рисков. Это как раз тот случай, когда презентация получилась заметно лучше, чем жизнь. На практике мы остановились на прототипе. Постфактум я вижу несколько причин — назову пару-тройку основных: 1) мы переоценили готовность организации к такой глубокой автоматизации и недооценили объем работы по формализации процессов и сценариев для AI; 2) вовлечённые команды были сильно загружены более «горящими» задачами; 3) технологии, которые сегодня относятся к GenAI, тогда были заметно менее зрелыми и доступными.
В целом, дата-проекты чаще всего ломаются не на моделях, а на организации. Когда ждут, что технология сама даст эффект, ответственность размазана, готовность данных и людей переоценена, а портфель перегружен параллельными инициативами, даже честный PoC трудно довести до внятного решения. Мой вывод простой: лучше запускать меньше проектов с сильной ядровой командой. Я теперь гораздо внимательнее смотрю на готовность организации и людей, чем на зрелость самой технологии.