Проект закона о регулировании искусственного интеллекта на государственном уровне был представлен Министерством цифрового развития, связи и массовых коммуникаций РФ. В числе ключевых аспектов — предотвращение формирования запрещенного контента, установление ответственности для создателей технологий и обязательная маркировка материалов. Создатели нейросетей обязаны исключать дискриминационные алгоритмы и блокировать генерацию противозаконных материалов.
Как сообщает издание «Коммерсант», Минцифры России в марте 2026 года обнародовало проект нормативного акта, касающегося государственного регулирования в сфере технологий искусственного интеллекта. Ожидается, что закон начнет действовать с 1 сентября 2027 года.
18 марта 2026 года министерство вынесло на общественное обсуждение законопроект «Об основах государственного регулирования сферы применения технологий искусственного интеллекта». Этот документ впервые на уровне законодательства фиксирует принципы создания и применения ИИ в России — от обозначения сгенерированных материалов до ответственности за ущерб, нанесенный нейронными сетями.
В законопроекте определяются основные понятия: под искусственным интеллектом предлагается рассматривать совокупность технологий, способных воспроизводить познавательные функции человека, в том числе самообучение, и достигать результатов, аналогичных или превосходящих человеческие. Вводятся термины ИИ-системы, ИИ-сервиса, ИИ-модели, а также ИТ-разработчика, оператора, владельца ИИ-сервиса и пользователя — все они становятся участниками правовых отношений с определенными правами и обязанностями.
Документ классифицирует ИИ-модели по категориям, учитывая их происхождение и степень надежности.
Суверенные и национальные ИИ-модели — это модели, разработанные исключительно в России. Все этапы ИТ-создания и обучения проходят на территории страны, выполняются только гражданами РФ или российскими юридическими лицами (более 50% голосов принадлежат гражданам России без второго гражданства или государству). Данные для обучения таких моделей также формируются в России. Для подобных ИИ-моделей предусмотрена государственная поддержка внедрения и формирование благоприятных условий. В пояснительных материалах представители Минцифры отмечают, что требования к суверенным и национальным моделям определены для выделения круга нейросетей, при разработке и внедрении которых будут применяться меры государственной поддержки.
Модели искусственного интеллекта, признанные доверенными, — это те, что допускаются к применению в государственных информационных системах и на важнейших объектах критической информационной инфраструктуры (КИИ, то есть ИТ-системы, имеющие ключевое значение для безопасности страны, её экономики и общественного спокойствия). Для получения подобного статуса модель ИИ должна пройти оценку безопасности в Федеральной службе безопасности (ФСБ) России и Федеральной службе по техническому и экспортному контролю (ФСТЭК), обеспечивать обработку данных на территории России, а также подтвердить своё качество в соответствии с отраслевыми нормативами. Такие модели ИИ будут заноситься в специальный реестр — порядок его ведения установит Правительство РФ. Оно же вправе ввести обязательность их использования на определённых объектах. При этом суверенная или национальная модель ИИ может получить статус доверенной, если дополнительно выполнит предъявляемые требования по безопасности и качеству.
Законопроект также определяет обязанности для всех участников сферы ИИ — от разработчиков моделей до конечных пользователей.
ИТ-разработчик модели ИИ должен обеспечить соблюдение ряда условий. Из функционала нейросети необходимо исключить любые возможности, способные привести к дискриминации людей по признакам их поведения, личных качеств, социального, демографического или иного статуса, не имеющим объективного обоснования. Чётко доносить до пользователей (в том числе в документации, интерфейсе модели или сопутствующих материалах) информацию о недопустимости применения модели ИИ в запрещённых целях. К таким целям относятся действия, противоречащие российскому законодательству, а также иные цели, прямо указанные в нормативных актах или условиях доступа к модели. Провести моделирование (оценку) потенциальных рисков, связанных с использованием разрабатываемой модели ИИ, включая риски дискриминации, ущемления прав и свобод граждан, причинения вреда здоровью, безопасности, общественному порядку и иным охраняемым законом ценностям. Указанные меры направлены на снижение негативных последствий от внедрения ИИ-технологий и обеспечение соответствия разрабатываемых моделей принципам этичного и ответственного использования ИИ.
Оператор модели ИИ обязан включить в документацию руководство по безопасной эксплуатации, проводить тестирование ИИ-системы. Обеспечивать пользователей информацией о функциональном назначении системы ИИ и её ограничениях. Приостанавливать работу в случае выявления киберугрозы, способной причинить ущерб жизни, здоровью людей, безопасности государства, имуществу или окружающей среде и т.д.
Наибольший объем обязательств по данному законопроекту ложится на владельцев сервисов искусственного интеллекта. Им необходимо обеспечить, чтобы их ИТ-сервисы не применялись для незаконных целей, а также внедрить инструменты, препятствующие генерации с помощью ИИ материалов, нарушающих российские законы. Если ежесуточно сервисом ИИ пользуются более 500 тысяч россиян, его владелец обязан следовать требованиям так называемого «закона Ирины Яровой», о котором ранее сообщал CNews: хранить данные и содержание сообщений пользователей, предоставляя их по запросу правоохранительных структур. Кроме того, владельцы таких сервисов должны маркировать контент, созданный искусственным интеллектом.
Крупные ИТ-платформы с суточной аудиторией свыше 100 тысяч пользователей обязаны проверять наличие подобной маркировки. При ее отсутствии они должны либо уведомить распространителя немаркированного ИИ-контента, либо удалить его. Заключая договоры с разработчиками ИИ-моделей, владельцы онлайн-сервисов должны согласовывать порядок передачи прав на результаты интеллектуальной деятельности, созданные с использованием этих моделей. Данные условия призваны защищать права авторов оригинальных произведений, на основе которых обучались ИИ-модели. Также в пользовательское соглашение необходимо включать пункт о принадлежности прав на сгенерированный контент.
Пользователь сервиса или модели ИИ обязуется соблюдать правила доступа к онлайн-сервису, использовать его только в законных целях, а также воздерживаться от попыток обхода встроенных систем безопасности и контроля. Помимо этого, при использовании сгенерированного контента он должен учитывать и не нарушать права и законные интересы третьих лиц.
Ответственность за результат применения ИИ, противоречащий российскому законодательству, распределяется между разработчиком ИИ-модели, оператором ИИ-системы, владельцем ИТ-сервиса и пользователем — пропорционально степени вины каждого. Они могут быть привлечены к ответственности, если знали или должны были знать о возможности получения противоправного результата при использовании ИИ.
Указанные лица освобождаются от ответственности при одновременном соблюдении следующих условий: были приняты все исчерпывающие и разумно доступные меры для предотвращения вреда; полностью выполнены требования действующего законодательства в сфере разработки, эксплуатации и применения технологий ИИ; вред возник вследствие непреодолимой силы, умысла пострадавшей стороны или действий третьих лиц, которые при проявлении должной осмотрительности и заботливости невозможно было предвидеть или предотвратить.
Законопроект не определяет конкретные виды и размеры санкций. В нем лишь указано, что лица, признанные виновными в нарушениях, несут административную или уголовную ответственность в соответствии с нормами действующего российского права.
Один из разделов законопроекта касается вычислительных мощностей для технологий искусственного интеллекта. Власти РФ получат право утверждать список дата-центров для ИИ, которым будут предоставлены особые условия работы.
Как сообщал CNews, такие центры смогут оформлять долгосрочные контракты на поставку электроэнергии с фиксированной максимальной стоимостью на весь период действия договора.
Им будет отменена плата за технологическое присоединение к сетям.
При прочих равных они получат приоритет на подключение к электросетям, а также упрощенную процедуру согласования схем внешнего энергоснабжения в процессе строительства.
Им будет разрешена закупка энергии по регулируемым тарифам, которые окажутся ниже, чем для промышленных потребителей в том же регионе, и по другим условиям.
Они смогут претендовать на государственное финансирование, налоговые послабления и иные меры поддержки.
В документе также присутствует часть о международном взаимодействии в сфере ИИ, включая совместные научные изыскания, обмен данными и учебными материалами, работу по стандартизации и созданию общих инфраструктурных и инновационных решений. Ключевым принципом должно стать обеспечение равных прав и возможностей всех стран в области разработки и применения технологий искусственного интеллекта.
Параллельно вводится термин «трансграничные ИИ-технологии» — те, создание или эксплуатация которых затрагивает два и более государств. В законопроекте отмечается, что их использование может быть запрещено или ограничено в случаях, предусмотренных российским законодательством.
В числе целей международного сотрудничества обозначены: создание единого пространства доверенных ИИ-технологий при ведущей роли России в мировом и региональном партнерстве; продвижение политики и стандартов, гарантирующих разработчикам нейросетей и их пользователям доступ к рынкам и ресурсам; популяризация за пределами страны отечественных ИИ-решений; использование российских технологических наработок в области ИИ для сокращения разрыва между государствами и усиления технологического потенциала стран-партнеров.
В пояснительных материалах Минцифры указано, что законопроект является рамочным, поэтому его положения будут применяться ко всем гражданам, организациям и индивидуальным предпринимателям, находящимся на территории РФ. При этом действие проекта не будет распространяться на использование ИИ в целях обороны и безопасности государства, охраны правопорядка, ликвидации чрезвычайных ситуаций. Особенности применения ИИ-технологий в этих сферах будут определять Президент России Владимир Путин или соответствующие федеральные законы.
Разработчики законопроекта подчеркнули, что из-за обобщённого характера документа в настоящее время нельзя точно определить размер расходов, которые потребуются для выполнения устанавливаемых обязательных норм. Также невозможно дать обоснованную оценку сопутствующим рискам и вероятным неблагоприятным социально-экономическим эффектам, способным проявиться после внедрения предлагаемых правил. Эти ограничения связаны с концептуальной, рамочной природой инициативы, которая предполагает дальнейшую конкретизацию положений в подзаконных документах, технических нормативах и методических указаниях.
Согласно тексту документа, к марту 2026 года отсутствие целостного регулирования, неясность прав и обязанностей для создателей, внедрителей и пользователей нейросетей, а также недостаточность поддерживающих мер тормозят развитие соответствующих технологий искусственного интеллекта в России, что создаёт угрозу технологического отставания.
«Возрастает риск применения ИИ-технологий без параллельного внедрения мер по их информационной безопасности, что способно повлечь причинение ущерба, в том числе жизни и здоровью людей, имуществу, общественной безопасности и другим ценностям», — отметили авторы проекта.