Специалисты Swordfish Security прогнозируют: в 2026 году произойдут резонансные атаки с использованием ИИ
Ключевые тенденции в сфере кибербезопасности представили эксперты компании, которая специализируется на защите искусственного интеллекта в России. В 2025 году в рамках этой группы был создан первый отечественный инструмент для оценки устойчивости ИИ-систем к кибератакам, его уже начали внедрять несколько крупных финтех-компаний. О смене парадигмы с безопасной разработки на концепцию доверенного программного обеспечения рассказали управляющий партнер группы Swordfish Security Юрий Сергеев и генеральный директор Swordfish Security Александр Пинаев.
CNews: Какие основные тенденции сейчас наблюдаются в области кибербезопасности? Можно ли утверждать, что рынок ждет от поставщиков совершенно новых подходов?
Александр Пинаев: Основное изменение, которое навсегда преобразило рынок информационной безопасности, — это смещение акцента в сторону готовых, зрелых продуктов для решения задач защиты, включая безопасность самого ИИ. Сегодня ключевой запрос заключается не просто в создании инструментов для обнаружения уязвимостей, а в разработке целостной платформы, которая позволит управлять растущим спектром рисков, связанных с активным внедрением ИИ в бизнес-процессы, и комплексно на них реагировать. Иными словами, путь, который классический DevSecOps проходил примерно за десятилетие, теперь необходимо преодолеть за год. Искусственный интеллект ускорил и трансформировал условия игры как для нападающей, так и для обороняющейся стороны.
Юрий Сергеев: Можно сказать, что ИИ демократизировал хакерскую деятельность. Если раньше требовалось искать бреши в коде и писать специализированное программное обеспечение, то сегодня достаточно умело формулировать разнообразные запросы на естественном языке, без навыков программирования. Российский бизнес, активно внедряющий ИИ, пока в полной мере не осознает этих угроз. Отчасти потому, что еще не было публичных громких инцидентов с утечкой данных. Однако это не означает, что злоумышленники уже не начали тестировать корпоративные ИИ-системы на предмет уязвимостей.
CNews:: Как вы думаете, когда стоит ожидать первых успешных взломов?
Александр Пинаев: Согласно нашим оценкам, уже к 2026 году могут произойти первые серьёзные инциденты — если не в России, то на глобальном уровне это весьма вероятно. Фокус сместится на ИИ-агентов, которые получат доступ к чувствительной информации, что способно привести к крупным утечкам данных.
Юрий Сергеев: Крупные языковые модели и системы искусственного интеллекта функционируют не изолированно. Они тесно связаны с прикладными программами и цифровыми платформами. Процесс их разработки включает несколько направлений: для приложений (DevSecOps), для данных (DataOps) и для ИИ-моделей (AISecOps). Чтобы нарушить эту цепочку и похитить информацию, можно атаковать саму модель или любой из её компонентов. Порой достаточно внедрить одну уязвимую библиотеку или устаревшую вредоносную версию фреймворка, которая попадёт в рабочую среду, — через этот малозаметный элемент можно будет атаковать весь производственный цикл и создаваемое на нём программное обеспечение. Подобные случаи происходят всё чаще как в обычных приложениях, так и, разумеется, в ИИ-системах. В ответ индустрия постепенно переходит к концепции Trustware — надёжного программного обеспечения, где безопасность каждого компонента и его источника не вызывает сомнений, а защита обеспечивается на всех этапах жизненного цикла ПО и искусственного интеллекта.
CNews: Если в прошлом году мы обсуждали безопасность ИИ в перспективе, то сейчас продукты информационной безопасности активно дорабатывают для работы с моделями и создают новые. Как вы оцениваете текущую ситуацию на рынке AI Security?
Александр Пинаев: Российский рынок защиты искусственного интеллекта растёт динамично. Разработчики создают собственные продукты, формируя уникальную экосистему для ускоренного развития отечественных технологий безопасности ИИ. Зарубежные решения класса Guardrails у нас малоприменимы: они созданы для облачных платформ AWS, Azure, Google и не могут быть использованы без глубокой адаптации. Традиционные межсетевые экраны также неэффективны для защиты моделей и агентов — здесь требуется иной подход. Поэтому необходимо строить принципиально новую систему безопасности, где защита должна «мыслить как искусственный интеллект». Для российского рынка AI Security это одновременно сложная задача и большая возможность.
Юрий Сергеев: В 2025 году безопасность искусственного интеллекта окончательно перестала быть узкоспециализированной темой и стала полноценным, востребованным сегментом кибербезопасности. На глобальном рынке практически молниеносно сформировались стандарты и подходы. Появились такие классификации, как OWASP LLM Top 10 и OWASP Agentic Top 15, а также начали развиваться процессные фреймворки. Наша компания в 2025 году представила первый в России зарегистрированный анализатор защиты ИИ — решение AppSec.GenAI от AppSec Solutions, предназначенное для поиска уязвимостей в языковых моделях. Мы приступили к его разработке более года назад, в период активного роста технологий ИИ, осознавая, что это ближайшее будущее индустрии. Сегодня этот продукт пользуется спросом, поскольку бизнес уже сейчас нуждается в защите, и крупные компании предпочитают внедрять готовые, проверенные решения.
CNews: Какой продукт в сфере безопасности ИИ сейчас вызывает наибольший интерес на рынке?
Юрий Сергеев: Безусловно, в первую очередь это ИИ-файрвол. Тестирование модели на уязвимости — это важный этап, но следующий логичный шаг — их блокировка и защита от потенциальных атак. Такой файрвол должен обеспечивать runtime-защиту моделей, контролировать соблюдение политик доступа и предотвращать утечку конфиденциальных данных. Мы уже ведём разработку собственного ИИ-файрвола, и многие наши партнёры выражают заинтересованность в таком продукте. В дальнейшем, по мере развития этой области, запросы рынка будут меняться: появится потребность не просто в файрволе, а в комплексной End-to-End AI Security платформе. Она будет включать расширенный набор инструментов: инвентаризацию доверенных моделей и обучающих данных, управление цепочками поставок для моделей и данных, оценку и снижение рисков, телеметрию, трассировку и расследование инцидентов, связанных с ИИ. Однако это, скорее, перспектива на ближайшие два-три года.
CNews: В 2025 году вы одними из первых в России выпустили фреймворк безопасности ИИ и сделали его бесплатным. Почему было принято такое решение?
Александр Пинаев: Изначально мы создавали этот фреймворк для внутреннего использования — как практический инструмент для оценки процессов безопасности, основанный на систематизированной матрице угроз ИИ (таксономии). Мы проанализировали все доступные нормативные документы — ГОСТы, приказы, регламенты ФСТЭК, международные наработки — и объединили их в единую систему. Затем мы решили поделиться этим документом с рынком, поскольку это важно для развития всей отрасли. Уже сейчас необходимо договориться об общей терминологии и методологии, унифицировать классификацию угроз.
CNews: Если говорить о трендах в классическом DevSecOps, какие ключевые тенденции 2025 года вы могли бы отметить и что, по вашим прогнозам, будет актуально в 2026?
Юрий Сергеев: Ключевыми терминами для 2025 года я бы определил объединение усилий и формирование целостных экосистем. Создание сквозной цепочки доверия к искусственному интеллекту по принципу «от первой строки кода до рабочего продукта» — это центральная тенденция, сохраняющая актуальность и в 2026 году. Речь идёт о гарантированной проверяемости каждого этапа: написания кода, подготовки информации, управления версиями данных, а также построения и обучения ИИ-моделей. Это напрямую связано с ускорением процессов разработки, где сегодня также массово применяются технологии ИИ. Эффективность автоматического создания кода возросла не вдвое, а в сотни раз, поскольку искусственный интеллект функционирует круглосуточно и справляется с задачами на порядки быстрее самой опытной команды программистов. Нас ждёт переход к парадигме, в которой ИИ самостоятельно создаёт программное обеспечение по описанию на обычном языке, оставляя человеку лишь оценку итога. С позиции DevSecOps потребуется обеспечение подобной разработки в принципиально новых масштабах и форматах, а также внедрение агентной модели для проверки кода, контроля надёжности, артефактов и цепочек поставок в сфере ИИ. Особо значимой задачей станет безопасность API, ведь все элементы ИИ-систем общаются через интерфейсы прикладного программирования, включая специализированные протоколы (MCP, A2A) как внутри системы, так и с внешней средой, что формирует совершенно новый фронт потенциальных угроз.
CNews: Каковы главные достижения вашей компании по итогам 2025 года?
Юрий Сергеев: Год выдался продуктивным. Мы отчитались о росте бизнеса на 50%. Решение AppSec.GenAI стало нашим самым успешным продуктом за первый год среди всех представленных на рынке. Именно это направление мы намерены развивать и дальше. В числе планов на 2026 год — внедрение ИИ-брандмауэра и совершенствование инструментов для защиты цепочек поставок и API.
Мы пересмотрели традиционный подход к статическому анализу исходного кода и воплотили новую концепцию в продукте AppSec.Wave, который, несмотря на недавний релиз, уже демонстрирует коммерческую востребованность. Помимо этого, в экосистеме AppSec Solutions были представлены ещё два новых продукта — средство защиты мобильных приложений AppSec.Cryptex и репозиторий артефактов AppSec.Registry.
Александр Пинаев: Нами была создана принципиально новая, изначально ориентированная на ИИ архитектура сервисов, которая задаёт вектор развития нашей методологии в перспективе — в условиях, когда их пользователями станут не только люди, но и автономные ИИ-агенты. На 2026 год поставлена масштабная цель — перевести все наши сервисы на эту обновлённую основу.