В декабре 2025 года Федеральная служба по техническому и экспортному контролю впервые включила в свой банк данных угроз информационной безопасности риски, связанные с технологиями искусственного интеллекта, о чём сообщается на официальном сайте ведомства. Это означает, что разработчикам программного обеспечения для государственных органов и критической информационной инфраструктуры теперь необходимо учитывать эти новые угрозы.
Как отмечает издание «Ведомости», ФСТЭК впервые выделила искусственный интеллект в качестве отдельного источника рисков для информационной безопасности. Соответствующие правки уже внесены в банк данных угроз по итогам декабря 2025 года.
В обновлённом перечне ведомства появились технологии ИИ, уязвимости в которых могут быть использованы злоумышленниками. К ним отнесены модели машинного обучения, наборы обучающих данных, подход Retrieval Augmented Generation (RAG), предполагающий генерацию ответов на основе внешних источников, а также LoRA-адаптеры, которые позволяют настраивать крупные модели под специфические задачи. В разделе также описаны возможные векторы атак, такие как эксплуатация уязвимостей в ИИ-фреймворках, изменение системных промптов или конфигураций ИИ-агентов, а также DoS-атаки, нацеленные на исчерпание лимитов запросов.
Ещё в сентябре 2025 года первый заместитель директора ФСТЭК Виталий Лютиков анонсировал разработку стандарта по безопасному созданию систем искусственного интеллекта, который дополнит существующий стандарт по безопасной разработке ПО. По его словам, документ планировалось завершить до конца 2025 года. Основой для этого стандарта, как пояснял Лютиков, как раз и должен стать опубликованный перечень киберугроз.
Первоначально банк данных угроз создавался для информирования специалистов о существующих ИТ-рисках. Однако теперь все организации, которые по законодательству обязаны обеспечивать безопасность своих информационных систем, должны использовать его при разработке моделей угроз. Это требование касается большинства компаний, работающих с персональными данными.
«Новый раздел банка данных угроз становится официальным и актуальным источником информации для такого моделирования в сфере технологий искусственного интеллекта», — подтвердил директор департамента расследований T.Hunter Игорь Бедеров. Кроме того, эти нововведения задают критерии для выбора средств защиты — документ не предписывает использование конкретного программного обеспечения, но указывает, от каких типов кибератак оно должно обеспечивать защиту.
Данный перечень ориентирован на организации критической информационной инфраструктуры (КИИ) и государственные органы, поясняет Павел Коростелев, руководитель отдела продвижения продуктов «Код безопасности». «Для них этот документ становится ключевой основой, необходимой для оценки рисков и построения систем защиты собственных информационных ресурсов», — подчеркнул он. Компании, которые заблаговременно адаптируют свои процессы анализа ИТ-угроз в соответствии с базой угроз ФСТЭК, смогут получить преимущество перед другими участниками рынка. К примеру, для операторов данных и сервис-провайдеров это повлечёт пересмотр контрактов и соглашений с включением пунктов о рисках и ответственности перед клиентами, а также станет стимулом для аудита собственной инфраструктуры на предмет ИТ-уязвимостей.
Как отмечает Юлия Липатникова, бизнес-партнер по кибербезопасности Cloud.ru, в декабре 2025 года от компаний не требуется немедленных действий, однако ИТ-разработчикам стоит учитывать публикацию данного списка на портале ФСТЭК, особенно при внедрении новых производственных процессов. При этом организации, которые заранее скорректируют подходы к моделированию киберугроз с учётом обновлённых данных, окажутся в более выигрышной конкурентной позиции.
В приказе ФСТЭК №117 от 11.04.2025, вступающем в силу с 1 марта 2026 года и устанавливающем новые нормы защиты информации в государственных информационных системах, содержится обширный раздел, посвящённый безопасности ИИ, моделей и наборов данных для их обучения, напомнил Алексей Лукацкий, консультант по безопасности Positive Technologies. «Однако столь сложная тема не может быть раскрыта в рамках одной страницы документа, который лишь формулирует требование о защите ИИ, но не поясняет методы его реализации», — уточнил он. Эксперт пояснил, что планируемый стандарт, описывающий конкретные меры для ИТ-компаний, внедряющих ИИ в свои продукты, дополнит положения данного приказа.
Статистических данных об использовании ИИ в атаках на российском ИТ-рынке по состоянию на 23 декабря 2025 года пока не представлено. Однако исследования международных организаций подтверждают активное применение злоумышленниками технологий искусственного интеллекта в кибератаках, о чём ранее CNews.
По данным аналитиков из компании SlashNext, специализирующейся на информационной безопасности, за первые двенадцать месяцев с момента запуска ChatGPT-4 (начиная с марта 2023 года) глобальный объем фишинговых атак увеличился на 1265%. Этот резкий рост напрямую связан с массовым созданием подобных писем при помощи технологий больших языковых моделей.