Глава оборонного ведомства США Пит Хегсет (Pete Hegseth) приблизился к решению о разрыве деловых контактов с компанией Anthropic, специализирующейся на искусственном интеллекте, и к объявлению её «угрозой для цепочек поставок». Это подразумевает, что все контрагенты министерства будут обязаны прекратить сотрудничество с Anthropic. Соответствующую информацию, ссылаясь на высокопоставленный источник в Пентагоне, опубликовало издание Axios.
Источник изображений: anthropic.com
«Разрыв этих отношений окажется крайне болезненным, и мы проследим, чтобы они понесли ответственность за то, что вынудили нас на этот шаг», — отметил источник издания. Столь жёсткие санкции, как правило, вводятся в отношении фирм из государств, считающихся недружественными США. «Взаимодействие Министерства обороны с Anthropic будет подвергнуто анализу. Нация ожидает, что наши партнёры будут способствовать победе военнослужащих в любом сражении. В конечном итоге, это вопрос защиты наших войск и безопасности граждан Америки», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell).
В настоящее время модель искусственного интеллекта Anthropic Claude — единственная, применяемая в засекреченных военных системах, и она лидирует во множестве коммерческих сфер. В министерстве высоко ценят её потенциал — система, в частности, была задействована в ходе недавней американской операции в Венесуэле. Со своей стороны, Anthropic стремится получить гарантии, что созданные ею ИИ-системы не станут инструментом массовой слежки за гражданами США или разработки полностью автономного оружия. В Пентагоне подобные требования считают излишне жёсткими, указывая на наличие множества «серых зон», делающих их выполнение практически невозможным.
В диалогах с тремя другими ведущими создателями искусственного интеллекта — OpenAI, Google и xAI — министерство отстаивает свою возможность применять их алгоритмы «для любых правомерных задач». Как сообщает источник Axios, руководство Пентагона уже давно выражает недовольство в адрес Anthropic и теперь воспользовалось ситуацией, чтобы вступить с фирмой в открытое противостояние. На сегодняшний день военное ведомство имеет законное право аккумулировать обширные данные о гражданах — от активности в социальных сетях до лицензий на скрытое оружие, — однако текущие правовые нормы не разрешают задействовать для этого ИИ. Технологии искусственного интеллекта могут радикально усилить эти возможности и открыть путь для слежки за обычными людьми.
«Мы поддерживаем конструктивный и ответственный диалог с Министерством обороны о дальнейшем сотрудничестве и корректном решении этих новых сложных вопросов», — отметил представитель Anthropic. Он подтвердил приверженность компании применению ИИ в интересах государственной безопасности, напомнив, что чат-бот Claude стал первым, внедрённым в закрытые сети. Также в компании добавили, что им пользуются восемь из десяти крупнейших корпораций США. Однако для продолжения работы с Пентагоном партнёров могут обязать гарантировать отсутствие контактов с Anthropic. Соглашение с оборонным ведомством оценивается в $200 млрд, тогда как годовой доход компании составляет $14 млрд. Как признали в министерстве, ИИ-модели конкурентов «несколько уступают» в части специализированных государственных задач, поэтому резкая смена технологического партнёра может быть затруднительной.
Жёсткая линия Пентагона в отношении Anthropic определила характер переговоров с OpenAI, Google и xAI — эти компании уже согласились снять ограничения для систем, функционирующих в открытых военных сетях, однако в секретных операциях такие решения пока не задействуются. По информации одного из источников, в Министерстве обороны уверены, что эти три фирмы примут принцип «применения для всех законных целей»; другой источник уточнил, что окончательное решение ещё не утверждено.