В России рассматривается предложение, обязывающее создателей отечественных систем искусственного интеллекта предоставлять информацию о данных, использованных для обучения и проверки нейросетей. Согласно проекту, технологические компании должны будут сообщать наименование датасета, время его формирования, цели применения, структуру, размер и источник.
Как сообщают «Ведомости», авторов нейронных сетей в стране могут обязать к раскрытию исходных информационных массивов. Это способно спровоцировать широкое обсуждение законности применения подобных материалов без согласия правообладателей, включая издательские дома.
Разработчиков российских моделей искусственного интеллекта (ИИ) могут обязать раскрывать детали о наборах данных, задействованных в обучении или тестировании их нейросетевых алгоритмов. Данная инициатива обсуждается в феврале 2026 года отраслевыми объединениями, компаниями в сфере ИИ и регулирующим органом в рамках подготовки законопроекта об искусственном интеллекте, сообщили «Ведомостям» два участника переговоров из разных организаций.
Планируется, что ИТ-компании будут обязаны указывать название набора данных, дату его создания, предназначение, формат, объём и происхождение. Рассматриваются возможности формирования отдельного реестра отечественного ИИ либо реестра датасетов. Точный механизм сбора такой информации пока не утверждён.
В июне 2025 года заместитель министра цифрового развития Александр Шойтов заявил, что Министерство цифрового развития, связи и массовых коммуникаций (Минцифры) России приступит к созданию реестра доверенного ИИ для применения в объектах критической инфраструктуры, как ранее информировал CNews. К февралю 2026 года судьба данного проекта остаётся неясной. Согласно постановлению Правительства России от декабря 2025 года, Минцифры установило требования к программно-аппаратным комплексам на базе ИИ для включения в реестр отечественного программного обеспечения (ПО). Других специализированных реестров для ИИ-технологий в стране на данный момент не существует.
В Минцифры России уточнили, что в актуальной редакции рамочного законопроекта отсутствуют положения о раскрытии обучающих данных. Документ пока имеет общий характер и закладывает основные принципы регулирования отрасли.
В России ведется разработка законодательной инициативы, направленной на регулирование искусственного интеллекта, сообщил 6 февраля 2026 года пресс-секретарь аппарата вице-премьера Дмитрия Григоренко. В рамках этой работы также определяются критерии отнесения нейросетей к отечественным, решаются вопросы авторских прав, маркировки контента, созданного ИИ, ответственности за нарушения и пресечения его криминального применения. Обсуждается вариант, при котором использование ИИ может считаться отягчающим фактором при совершении правонарушений.
Эксперты российского ИТ-сектора отмечают, что детальное описание массивов данных способно потребовать чрезмерных затрат и превратиться в формальную процедуру, лишенную практической пользы для анализа. Более того, такая открытость информации может нанести ущерб коммерческим интересам разработчиков и затормозить выход на рынок новых технологических продуктов.
Представитель Альянса в сфере ИИ (объединяющего Сбербанк, «Яндекс», VK, «Т-Банк», МТС и ряд других компаний) добавил, что исчерпывающее и точное описание подобных данных в реестровой форме либо потребует непропорционально больших ресурсов, либо сведется к бессмысленному формальному списку.
Одновременно с этим, сторонники предлагаемых мер уверены, что повышение прозрачности укрепит доверие к моделям ИИ, позволит проводить их независимую экспертизу и дисциплинирует процесс работы с данными. Это также может помочь в создании легального рынка данных и минимизировать риски использования материалов без согласия правообладателей.
Публикация сведений о наборах данных, используемых для обучения нейросетей, будет стимулировать развитие коммерческого оборота информации. В настоящее же время ИТ-разработчики, как правило, применяют для обучения своих ИИ-моделей открытые и любые доступные данные, зачастую бесплатно и без ведома их владельцев, отмечает заведующий кафедрой ИИ Финансового университета Михаил Коротеев. Подобная практика, с одной стороны, ускоряет развитие технологий, но, по сути, остается вне четкого правового поля, что ведет к конфликтам интересов и создает риски утечки конфиденциальной и персональной информации, несанкционированного использования образа граждан и копирования авторского стиля, поясняет он.
Не вся информация, применяемая для обучения искусственного интеллекта, обладает одинаковой ценностью, отмечает директор ИИ-института ИТМО Александр Бухановский. В сети существует значительный объем общедоступных данных — к примеру, новостные потоки или материалы, перешедшие в статус общественного достояния, такие как книги или произведения искусства, уточняет он. Следовательно, вполне обоснованно, что ИИ-системы могут использовать эти ресурсы безвозмездно, что будет способствовать их более широкому распространению, считает специалист.
В вопросах ценообразования можно ориентироваться на уже сложившиеся рыночные сегменты, заявил соучредитель Promobot Олег Кивокурцев. Так, аналитические отчеты могут оцениваться в десятки тысяч долларов, базы диссертаций — в сотни тысяч рублей, а художественная литература — в сотни рублей, поясняет он.
По мнению экспертов, введение обязательного раскрытия информации потребует создания адаптивных лицензионных схем. На международном уровне аналогичные нормы уже действуют, однако их внедрение сопряжено с правовыми и технологическими трудностями.
Если регулирование затронет модели, вводимые в эксплуатацию или применяемые в публичных IT-сервисах на территории РФ, формально под его действие могут попасть не только отечественные компании, такие как «Яндекс» и Сбербанк, но и зарубежные разработчики, включая OpenAI, Microsoft, DeepSeek и Perplexity AI, которые вряд ли будут его соблюдать, полагает заместитель исполнительного директора Центра компетенций НТИ по большим данным МГУ им. М.В. Ломоносова (ЦК НТИ МГУ) Гарник Арутюнян.
По состоянию на 25 февраля 2026 года окончательного решения по данной инициативе не принято. Дискуссия продолжается на площадках профильных ассоциаций и государственных органов.
В феврале 2026 года большинство нормативно-правовых актов России в области ИИ носят преимущественно стимулирующий характер, при этом существуют точечные ограничения и механизмы саморегулирования. Например, в 2020 году был принят закон «Об экспериментальных правовых режимах в сфере цифровых инноваций» (ЭПР), позволяющий устанавливать правовые исключения для тестирования новых технологий. К концу 2024 года уже было запущено 16 таких экспериментальных режимов. В рамках ЭПР были определены ситуации обязательного страхования ответственности за ущерб, причиненный применением ИИ-технологий, указывают авторы документа. За исключением ограничений, установленных законом об ЭПР, правила внедрения и использования ИИ действующим российским законодательством не регламентированы.
Начиная с 2025 года, в России реализуется национальная инициатива «Экономика данных», включающая федеральную программу «Искусственный интеллект», как сообщал CNews. В её рамках выделяются государственные гранты для развития проектов в области ИИ, а также ведётся деятельность специализированных научных центров. Тогда же Банк России обнародовал этический кодекс, регулирующий создание и использование технологий искусственного интеллекта в финансовом секторе. Документ основан на пяти ключевых принципах: ориентация на человека, беспристрастность, открытость, защищённость и взвешенный контроль рисков. Данный кодекс имеет для IT-разработчиков рекомендательный статус.