Новости Software

Anthropic заявила о 16 млн атак на Claude: в центре скандала — китайские ИИ-стартапы

В начале февраля OpenAI уже информировала конгресс США о том, что китайская компания DeepSeek использует метод дистилляции её ИИ-систем для ускорения своих разработок. Теперь аналогичные претензии выдвинула Anthropic, указав на трёх китайских игроков: DeepSeek, MiniMax Group и Moonshot.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

Как сообщает Bloomberg со ссылкой на заявления Anthropic, эти три фирмы нарушили условия использования её моделей Claude, проведя через тысячи фальшивых аккаунтов не менее 16 миллионов сессий по обмену данными. Техника дистилляции в машинном обучении даёт возможность разработчикам быстро улучшать собственные алгоритмы, обучая их на выходных данных уже созданных продвинутых моделей.

В корпоративном блоге Anthropic отмечает, что активность китайских разработчиков в этой области становится всё более интенсивной и изобретательной. При этом временное окно для эффективного противодействия стремительно сокращается, а сама угроза выходит за рамки отдельной организации и географических границ.

Прорыв китайской DeepSeek произошёл около года назад с представлением модели R1, которая показала сопоставимую эффективность при значительно меньших затратах на обучение по сравнению с западными аналогами. С того момента китайские компании буквально заполонили рынок более бюджетными ИИ-решениями для обработки текста, видео и графики. Американским корпорациям, работающим в рамках закрытых экосистем, стало труднее извлекать прибыль из своих инноваций.

По информации Anthropic, китайские конкуренты применяли фиктивные учётные записи и прокси-серверы для доступа к Claude с минимальными шансами быть обнаруженными. Если DeepSeek выполнила свыше 150 тысяч взаимодействий с Claude, то MiniMax превысила отметку в 13 миллионов попыток, стремясь, по мнению Anthropic, воспроизвести ключевые возможности системы. Выявить эту деятельность помогли партнёры компании, и в точности своих выводов Anthropic не сомневается. Она уже разрабатывает новые способы защиты от дистилляции и готова делиться наработками с коллегами по отрасли: «Ни одна компания в одиночку не способна противостоять этому. Атаки такого масштаба требуют согласованных действий всего ИИ-сообщества, включая облачных провайдеров и регулирующие органы».

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории
Популярные новости