Новости

ИИ как угроза: власти официально внесли искусственный интеллект в список киберрисков

В декабре 2025 года Федеральная служба по техническому и экспортному контролю впервые включила в свой банк данных угроз информационной безопасности риски, связанные с технологиями искусственного интеллекта, о чём сообщается на официальном сайте ведомства. Теперь разработчикам программного обеспечения для государственных органов и критической информационной инфраструктуры необходимо будет учитывать эти данные.

Как отмечают «Ведомости», ФСТЭК впервые выделила искусственный интеллект в качестве отдельной категории угроз для информационной безопасности. Соответствующие поправки уже были внесены в банк данных угроз в декабре 2025 года.

В обновлённом перечне ведомства появились ИИ-технологии, уязвимости в которых могут быть использованы злоумышленниками. К ним отнесены модели машинного обучения, наборы обучающих данных, подход Retrieval Augmented Generation (RAG), генерирующий ответы на основе внешних источников, а также Low-Rank Adaptation (LoRA)-адаптеры, предназначенные для настройки крупных моделей под специфические задачи. В разделе также описаны возможные векторы атак, такие как эксплуатация уязвимостей в ИИ-фреймворках, изменение системных промптов или конфигураций ИИ-агентов, а также DoS-атаки, нацеленные на исчерпание лимита запросов с использованием одного устройства.

Ещё в сентябре 2025 года первый заместитель директора ФСТЭК Виталий Лютиков анонсировал разработку стандарта по безопасному созданию ИИ-систем, который дополнит существующий стандарт по безопасной разработке ПО. По его словам, документ планировалось завершить до конца 2025 года. Опубликованный перечень киберугроз, как пояснял Лютиков, станет основой для этого стандарта.

Первоначально банк данных угроз создавался для информирования специалистов о существующих ИТ-рисках. Однако теперь все организации, которые по законодательству обязаны обеспечивать защиту своих информационных систем, должны использовать его при формировании моделей угроз. Это требование распространяется на большинство компаний, работающих с персональными данными.

«Новый раздел банка данных угроз становится официальным и актуальным источником информации для такого моделирования в сфере технологий искусственного интеллекта», — подтвердил директор департамента расследований T.Hunter Игорь Бедеров. Кроме того, эти нововведения устанавливают критерии для выбора средств защиты — документ не предписывает использование конкретного программного обеспечения, но определяет, от каких типов кибератак оно должно обеспечивать защиту.

Данный перечень ориентирован на организации критической информационной инфраструктуры (КИИ) и государственные ведомства, поясняет Павел Коростелев, руководитель отдела продвижения продуктов «Код безопасности». «Для них этот документ становится ключевой основой, необходимой для оценки рисков и построения защитных ИТ-механизмов своих информационных систем», — подчеркнул он. Те, кто заблаговременно адаптирует свои процедуры анализа ИТ-угроз в соответствии с базой угроз ФСТЭК, получат преимущество перед другими участниками рынка. К примеру, для операторов данных и сервис-провайдеров это повлечет пересмотр контрактов и соглашений, где будут зафиксированы риски и обязательства перед клиентами, а также станет стимулом для аудита собственной инфраструктуры на предмет ИТ-уязвимостей.

Как отмечает Юлия Липатникова, бизнес-партнер по кибербезопасности Cloud.ru, в декабре 2025 года компаниям не требуется предпринимать активных действий, однако ИТ-разработчикам стоит принять к сведению публикацию данного списка на сайте ФСТЭК, особенно при внедрении новых производственных циклов. При этом организации, которые заранее скорректируют подходы к моделированию киберугроз с учётом обновлённых данных, укрепят свои конкурентные позиции.

В приказе ФСТЭК №117 от 11.04.2025, который начнёт действовать с 1 марта 2026 года и вводит новые нормы защиты информации в государственных информационных системах, содержится обширный раздел, касающийся безопасности ИИ, моделей и наборов данных для их обучения, напоминал Алексей Лукацкий, консультант по безопасности Positive Technologies. «Однако столь сложная тема не может быть раскрыта в рамках одной страницы документа, который лишь декларирует требование защищать ИИ, но не поясняет, как именно это делать», — уточнил он. Эксперт пояснил, что планируемый стандарт, описывающий конкретные меры для ИТ-компаний, внедряющих ИИ в свои продукты, дополнит положения приказа.

Статистических данных об использовании ИИ в атаках на российском ИТ-рынке по состоянию на 23 декабря 2025 года пока не представлено. Однако исследования международных организаций подтверждают, что злоумышленники активно применяют ИИ-технологии в кибератаках, о чём ранее CNews.

По данным аналитиков из компании SlashNext, специализирующейся на информационной безопасности, за первые двенадцать месяцев после релиза ChatGPT-4 (начиная с марта 2023 года) глобальный объём фишинговых атак увеличился на 1265%. Этот резкий рост напрямую связан с массовым созданием подобных писем посредством крупных языковых моделей.

Антон Денисенко

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории