Простые дашборды стали обыденностью — компании теперь требуют прогнозные модели и советы на основе данных
В обстановке значительной нестабильности надежная аналитика и способность делать прогнозы, опираясь на актуальные метрики, превращаются в ключевой фактор устойчивости. Дополнительным стимулом для активной работы с информацией выступает потребность в обучении систем искусственного интеллекта. При этом отечественный рынок данных расширяется вдвое быстрее, чем в среднем по миру. О том, как предприятия применяют аналитические инструменты и какие ИИ-решения поддерживают обработку данных, говорили эксперты на конференции «Рынок аналитики и больших данных 2026», организованной CNews Conferences.
Сфера больших данных и аналитических решений
Период хранилищ информации стартовал в 1990-х — данные тогда применялись главным образом для формирования финансовой и обязательной отчетности, анализа отклонений плановых и фактических показателей, а также управления запасами на складах. К 2005 году, с распространением Hadoop, наступила эпоха больших данных, открывшая возможности для решения задач в реальном времени и монетизации этих процессов. С 2015 года началась фаза облачных технологий и модели Data-as-a-Service, а для анализа информации стали активно внедрять методы машинного обучения. Сегодня мы вступили в новую стадию — время платформ Lakehouse, таких как Databricks, и повсеместного использования искусственного интеллекта.
Юрий Пчелин, руководитель Департамента ИТ-сервисов и отказоустойчивости компании «Дикси», выступивший модератором дискуссии, обратил внимание, что основными тенденциями на российском рынке больших данных в 2025 году стали масштабный переход с Hadoop на отечественные аналоги, дебют первых локальных платформ класса Lakehouse, повышенный фокус на защите данных в озерах, а также использование синтетически сгенерированной информации.
«Информационные массивы служат основным двигателем цифровой экономики: ни развитие искусственного интеллекта, ни цифровая трансформация экономики и государственного управления в принципе неосуществимы без надежных и объемных данных», — отметил в своем выступлении Сослан Габуев, замдиректора Департамента развития искусственного интеллекта и больших данных Минцифры РФ. Отечественный рынок данных расширяется вдвое быстрее общемирового и к 2030 году приблизится к отметке в 1,2 трлн рублей.
Тем не менее, в России практика обмена данными между организациями пока развита недостаточно. Большинство предприятий склонны самостоятельно накапливать пользовательскую информацию. На рынке данных можно выделить несколько основных моделей взаимодействия: P2P, предполагающая прямой обмен между владельцем и получателем данных; брокерская, где посредник организует доступ к данным и сопровождает сделку; каталоговая, при которой формируется витрина предложений, а связь с поставщиком осуществляется через платформу; маркетплейс — проведение сделок на платформе с контролем расчетов и соблюдения правил; биржевая модель, обеспечивающая стандартизированную торговлю данными с участием доверенных посредников и контролем качества.
Сослан Габуев указал, что развитию рынка данных в настоящее время мешают серьезные барьеры: ограничения, связанные с доступом к персональным, медицинским, банковским и налоговым сведениям, а также технические сложности. По его мнению, в России необходимо создавать как государственные, так и коммерческие биржи данных с прозрачными процедурами лицензирования и сертификации, однако для этого предстоит решить еще целый комплекс задач.
Евгений Лящук, коммерческий директор «СберАналитики», представил итоги исследования, проведенного в феврале 2026 года. Оказалось, что в компаниях, внедривших BI-системы, сотрудники постоянно ими пользуются. Наиболее активно такие инструменты применяют подразделения, отвечающие за аналитику, финансы, автоматизацию процессов, логистику и сбыт. С помощью BI решаются задачи, связанные со снижением издержек, планированием, а также изучением причин и влияющих факторов.
Исследование выявило, что при выборе BI-решения определяющим критерием является его качество, а не цена. Клиенты обращают внимание на производительность, удобство инструментов визуализации, способность интегрироваться с разными источниками данных, работу с большими массивами информации, а также на развитость экосистемы и уровень технической поддержки.
К сожалению, функция самостоятельной работы с BI пока не стала массовой — лишь очень небольшое число систем предоставляет такую возможность. Аналогичная ситуация и с GenAI — инструменты на основе искусственного интеллекта присутствуют только в 15% решений. Среди них — «Навигатор BI», отечественная платформа для бизнес-аналитики и визуализации данных, созданная «Сбером». В ней реализован набор AI-инструментов: генерация визуализаций по запросу на основе исходных данных, подключение AI-агентов к мультиагентной системе, интеллектуальный поиск по дашбордам с помощью голосовых или текстовых команд, автоматическое отображение ключевых метрик, а также RAG Q&A — система ответов на вопросы по содержимому документальных библиотек.
От анализа данных к предсказательной аналитике
Компания «Терн» присутствует на ИТ-рынке с 1991 года. С 1997 года она стала внедрять в России Business Objects, а накопленный опыт работы с этим продуктом позволил ей создать собственную платформу «Терн Юниверс». «На сегодняшний день это одно из промышленных BI-решений», — отмечает Эдуард Федечкин, специалист по системам бизнес-аналитики компании «Терн».
«Терн Юниверс» способна обрабатывать информацию из любых источников. При этом пользователь получает не сырые данные, а готовые аналитические метрики — платформа оснащена визуальным конструктором, использующим привычную бизнес-терминологию, что позволяет самостоятельно извлекать сведения, проводить анализ, создавать произвольные отчёты и дашборды с таблицами, графиками, диаграммами и другими визуальными элементами. Кроме того, система понимает запросы, сформулированные на естественном языке — она преобразует их в формальные запросы к данным и генерирует аналитику. Компания «Терн» также предоставляет инструмент для переноса информации из Business Objects в «Терн Юниверс».
«Внедрение аналитических систем для многих организаций означает фундаментальный сдвиг в мышлении и подходе к принятию решений», — говорит Николай Галкин, руководитель Департамента информационных технологий компании «Кофемания». В его компании применяется решение FineBI. «Специфика работы ресторанов, где блюда готовятся непосредственно после заказа, требует учёта огромного числа параметров в аналитике», — пояснил Николай Галкин. Ещё недавно планирование в «Кофемании» базировалось на экспертном мнении шеф-поваров, затем компания пробовала применять простые статистические методы в Excel. Однако наибольшую эффективность показало прогнозирование на основе машинного обучения.
Николай Галкин описал процесс обучения модели. В итоге удалось достичь 99% точности в прогнозе продаж, а объём списаний сократился на 30%. В перспективе — переход от суточного к почасовому прогнозированию, интеграция внешних факторов: праздничных дней, погоды, трафика, полная автоматизация цепочки — от прогноза до автоформирования заказа поставщику, а также самообучение системы.
«Все компании стремятся стать data-driven, но на практике таких единицы», — утверждает Максим Чернухин, технический директор «СберСтрахование жизни». Сегодня многие организации уже имеют Data Lake, BI, ML и LLM, но их бизнес-процессы не претерпели изменений. Причина кроется не в технологиях, а в отсутствии ответственных лиц, отлаженных процессов и культуры принятия решений на основе данных.
Максим Чернухин рассказал о том, как должна выглядеть идеальная data-архитектура и как перейти к AI-Native процессам, когда искусственный интеллект сможет самостоятельно отслеживать события и тренды, предлагая превентивные действия. Он подчеркнул важность обучения сотрудников и их вовлечения в реализацию проекта по построению компании, управляемой данными.
Специалисты по анализу данных не справляются с бизнес-запросами, поскольку те часто формулируются неполно и нуждаются в многочисленных уточнениях. В «Альфа-Лизинг» разработали пользовательский портал, позволяющий четко обозначать необходимые аналитические отчеты и указывать информацию для их формирования. Об архитектуре этого решения рассказал Александр Воробьев, возглавляющий управление стратегического проектирования и цифровых инноваций «Альфа-Лизинг».
Первичную оценку запросов выполняет искусственный интеллект — он контролирует их полноту, проверяет поля и атрибуты, сверяет с каталогом данных, выявляет несоответствия. Спустя 3 минуты система формирует перечень обнаруженных «пробелов» в требованиях, предлагает варианты их заполнения, критерии проверки качества данных и возможные источники информации. Благодаря этому аналитики экономят время на согласовании деталей с заказчиками и могут сосредоточиться на своей непосредственной работе.
Принципы управления данными
«Распространено мнение, что существует идеальная методология, которую нужно применить для построения системы управления данными. Однако на практике строгое следование框架 может не дать результата», — отмечает Дарья Куликова, руководитель департамента по управлению данными ФГ БКС. Она поделилась ключевыми принципами, способствующими успеху в этой области.
Во-первых, необходимо «устранять причину проблем, а не их внешние проявления». Во-вторых, важно понимать, что управление данными завершается в момент принятия бизнес-решения. В-третьих, не стоит автоматизировать хаотичные процессы. Основными показателями эффективности внедряемых решений являются доверие пользователей и скорость работы. «Также стоит помнить, что за каждым успешным внедрением стоит лидер, увлеченный идеей и способный вдохновить свою команду», — добавляет Дарья Куликова.
Игорь Татаренко, директор департамента «Мастер Дата» компании «Русклимат», начал выступление с примеров, когда ошибки в управлении данными приводят к серьезным сложностям. К примеру, ни одна площадка электронной коммерции не корректно работает с товарными комплектами, состоящими из нескольких упаковок. Он также поделился взглядом на применение данных и мастер-данных. Так, в «Русклимате» для обучения ИИ используется чат-бот, консультирующий сотрудников по правилам ввода информации; искусственный интеллект также занимается очисткой данных, поиском ошибок, дубликатов позиций и аналогов с разными названиями.
Еще одно направление применения — системы роботизации и автоматической обработки товаров на складских комплексах. И, безусловно, данные незаменимы для планирования производства, продаж и других процессов. При этом критически важно внедрять единую систему управления данными и тщательно оценивать экономический эффект от автоматизации.
На платформе Наш.дом.рф аккумулируется информация обо всем жилье, которое возводится в России. Объем данных огромен: это и фотофиксация объектов, и проектная документация. Эти сведения активно применяются риелторскими агентствами, строительными компаниями, финансовыми организациями, производителями и рекламными бюро. «Наша платформа служит первостепенным и ключевым ресурсом сведений обо всех стройках в стране», — отмечает Анна Богдашкина, руководитель направления стратегического развития «ДОМ.РФ Технологии».
Через программный интерфейс (API) доступен максимально полный массив информации в формате, удобном для автоматической обработки, — данные о коммерческих площадях и нежилых помещениях, сроки сдачи объектов и другое. В декабре 2025 года на базе ДОМ.РФ была создана отраслевая платформа данных для строительной сферы РФ. Анна Богдашкина призвала девелоперов присоединяться к этой системе.
Виктор Романенко, заместитель генерального директора по внутренним процессам и проектам Торгового дома «Ренна», поделился опытом построения в своей компании бизнеса, основанного на данных. Работа началась с формирования единого хранилища информации, ее структуризации, а затем перешла к внедрению аналитических инструментов. В качестве технологической базы были выбраны решения ClickHouse и Delta BI. Виктор Романенко описал этапы развития этого проекта.
«Приготовьтесь к тому, что первые шесть месяцев вы сами активно убеждаете заказчика утвердить и оплатить проект, но впоследствии он уже сам обращается к вам с запросами на новые аналитические панели», — пояснил он. Эффект от внедрения очевиден: время на формирование ежедневных отчетов сократилось с полутора часов практически до нуля, а число пользователей аналитической системы превысило 130 человек.
«Фора Банк» — компания скромного размера, которая тщательно оценивает рентабельность каждого проекта. «Сейчас главным катализатором цифровых изменений выступает искусственный интеллект, но для его работы необходимы качественные данные», — подчеркивает Геннадий Гребеник, директор по трансформации «Фора Банка». В банке приняли решение о разработке унифицированной аналитической платформы. Первым шагом должно было стать создание прочного фундамента — по сути, реализация масштабного инфраструктурного проекта уровня всей организации: построение слоя детализированных данных (DDS) и витрины обобщенных данных (GDM).
В конечном счете проект пришлось внедрять пошагово, сосредоточившись на первоочередных бизнес-потребностях. Первым был запущен сервис «Управленческий баланс», за ним последовали «Воронка продаж банковских карт» и «Доходность клиентов и продуктов». Геннадий Гребеник поделился трудностями, возникшими в ходе работы, и извлеченными уроками.
«Росхим» оперирует 10–15 доменами данных, включая ежедневные выгрузки, накопленные массивы и информацию из сторонних систем. Вместо создания затратной Big Data-платформы компания выбрала подход с развертыванием On‑premise-решения на основе PostgreSQL, как пояснил Сергей Земелькин, руководитель направления корпоративных данных «Росхим».
Основной сложностью стала нормализация данных — для её обеспечения были внедрены стандарты атрибутов и единый формат идентификаторов, запущены контроль версий, регламенты и автоматическая проверка. Это позволило наладить парсинг внешних данных и локальную нормализацию, а также автоматизировать процессы сбора и загрузки. «Тем не менее, наиболее быструю отдачу принес отказ от дорогостоящих внешних сервисов, а не внедрение BI-инструментов», — отметил Сергей Земелькин. В ближайшей перспективе планируется расширить перечень доменов и зон ответственности, углубить трансформацию процессов и ролей владельцев данных, развить витрины для управленческих и оперативных нужд, а также создать масштабируемую архитектуру с прогнозируемой совокупной стоимостью владения.