Безопасность

Хакеры маскируются под ChatGPT: скрытность атак на компании выросла на 40%

Аналитики фирмы «Информзащита» обнаружили, что маскировка злоумышленников под трафик крупных языковых моделей (LLM) повысила скрытность кибернападений на бизнес на 42%. Специалисты выявили, что фальшивые обращения к LLM-API дают возможность прятать вредоносные действия внутри обычного потока данных искусственного интеллекта, который сейчас массово задействован в корпоративных сервисах. Именно эта «законная упаковка» делает современные угрозы столь серьёзными: ИТ-инфраструктура распознаёт их как штатный обмен с ИИ, хотя в реальности это оказывается полноценным каналом управления скомпрометированными системами.

Согласно отчёту, вредоносные приложения формируют запросы, внешне идентичные обращениям к чат-моделям, заменяя стандартные параметры скрытыми инструкциями для командных серверов. Подобный трафик преодолевает сетевые экраны и средства наблюдения, которые обычно не считают LLM-запросы потенциально опасными. Увеличение доверия к интеграции ИИ за последние два года сформировало среду, где злоумышленники смогли обратить технологический прогресс в прикрытие для атак, незаметно проникая в корпоративные сети.

Эксперты утверждают, что подделка LLM-запросов превращается в один из наиболее быстро растущих видов угроз, и именно эти злоумышленники оперативнее других приспосабливаются к переменам в корпоративной инфраструктуре. Особую настороженность вызывает то, что атакующие фокусируются не только на привычных способах заражения, но и на принципиально новых подходах, включая динамическое создание вредоносного кода с применением возможностей языковых моделей. Уже возникают семейства «ИИ-вредоносов», способные автономно изменять скрипты и адаптировать поведение зловредных модулей под окружение атакуемой компании. Наиболее показательным случаем стала новая угроза MalTerminal, демонстрирующая подход с генерацией вредоносных элементов непосредственно в ходе выполнения, что существенно затрудняет обнаружение подобных атак.

Риск таких нападений для организаций состоит в том, что они почти не оставляют типичных следов на начальных стадиях. Компании могут не только лишиться данных или оказаться под внешним контролем, но и получить долговременное скрытое присутствие злоумышленника в своей инфраструктуре. Вредоносный код способен развёртывать дополнительные компоненты, создавать прокси-каналы, собирать секретную информацию и исполнять произвольные команды. Всё это происходит на фоне полного доверия к ИИ-трафику, который всё активнее применяется в автоматизации, обработке обращений клиентов, внутренних службах поддержки и аналитике.

Основной удар новых кибератак пришёлся на три ведущие отрасли: финансовый сектор (34%), промышленность и высокотехнологичные производства (27%), а также розничную торговлю и электронную коммерцию (21%). Остальные 18% распределились между государственными, образовательными и медицинскими учреждениями, где интенсивный трафик и сложная инфраструктура повышают вероятность скрытых угроз.

В свете обнаруженных рисков эксперты советуют бизнесу серьёзно усилить контроль и наблюдение за трафиком, связанным с искусственным интеллектом. Компаниям необходимо внедрять глубокий анализ запросов к платформам больших языковых моделей, сверять источники обращений с внутренними и внешними политиками защиты, а также разрешать доступ к ИИ-сервисам только через доверенные каналы. Ключевой мерой является изоляция рабочих, тестовых и инженерных сред, что минимизирует риск незаметного распространения вредоносных действий. Специалисты также рекомендуют отслеживать процессы загрузки и запуска файлов, блокируя выполнение неавторизованных модулей, поступающих через замаскированные пути. Дополнительно предлагается использовать системы выявления аномалий, которые могут обнаруживать подозрительные запросы в рамках обычных ИИ-операций.

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории