Соглашение между Министерством обороны США и технологической фирмой Anthropic оказалось под угрозой срыва из-за расхождений во взглядах на применение искусственного интеллекта. Как передаёт Reuters, обсуждения достигли точки, когда договор на 200 миллионов долларов может быть аннулирован. Специалисты Anthropic выражают обеспокоенность тем, что американские военные могут применять их нейросети для наблюдения или целеуказания при ракетных атаках.
Пентагон рассматривает возможность прекращения 200-миллионного контракта с Anthropic, сообщает Reuters. Разработчикам не нравится перспектива использования их ИИ-моделей военными для слежки за жителями США и для наведения ракет.
По данным Reuters, переговоры 30 января 2026 года зашли в тупик, что ставит под вопрос будущее соглашения на сумму 200 миллионов долларов.
Данный контракт был подписан летом 2025 года на общую сумму около 200 миллионов долларов. Согласно его условиям, ИИ-модели Claude от Anthropic должны были быть внедрены в оборонные информационные системы США. Однако напряжённость между компанией и американскими властями возникла вскоре после заключения сделки, отмечают журналисты Reuters.
Одним из ключевых спорных моментов стали внутренние правила Anthropic, запрещающие применение Claude для внутреннего наблюдения. Эти ограничения сужают возможности использования технологий компании такими ведомствами, как Федеральное бюро расследований (ФБР) и Иммиграционная и таможенная служба США.
В Anthropic опасаются, что их технологии могут быть задействованы для слежки за американцами или для помощи в наведении вооружений без необходимого человеческого надзора, сообщили Reuters осведомлённые источники. В Пентагоне, в свою очередь, негативно отнеслись к пользовательскому соглашению компании. Чиновники полагают, что должны иметь право применять коммерческие ИИ-решения независимо от политик их создателей, если это не противоречит американскому законодательству.
ИИ-модели Anthropic обучались таким образом, чтобы избегать причинения вреда, и именно сотрудники компании будут адаптировать их для нужд Пентагона, пояснили источники Reuters. По их оценке, текущие разногласия могут привести к расторжению контракта между Anthropic и Министерством обороны.
27 января 2026 года генеральный директор компании Anthropic Дарио Амодеи (Dario Amodei) высказал мнение, что человечество стоит на пороге обретения колоссальной силы, и пока неясно, готовы ли наши общественные, политические и технологические институты к её ответственному применению. В своём эссе он отметил, что технологии искусственного интеллекта должны служить укреплению национальной безопасности во всех аспектах, за исключением тех, что могут приблизить нас к методам авторитарных оппонентов.
Anthropic и OpenAI являются двумя ведущими мировыми ИТ-компаниями, создающими масштабные языковые модели ИИ и другие системы общего назначения. К 2026 году именно их разработки составляют основу для умных чат-ботов и ИИ-ассистентов, способных генерировать текст, писать код, анализировать информацию и поддерживать беседу, почти неотличимую от человеческой.
Если OpenAI получила широкую известность после релиза ChatGPT и моделей GPT‑3/4, фактически установив отраслевой стандарт для генеративного ИИ, то Anthropic — основанная бывшими сотрудниками OpenAI — развивает собственное семейство моделей Claude и заявляет о себе как о компании, уделяющей особое внимание безопасности и контролю над искусственным интеллектом.
Обеспокоенность в связи с развитием технологий ИИ наблюдается не только в США, как сообщал CNews. Опрос исследовательского центра Pew Research, проведённый осенью 2025 года, продемонстрировал, что большинство взрослых жителей США и Италии считают, что нейросети подорвут способность людей к творческому мышлению, а половина респондентов полагает, что эта технология ослабит умение выстраивать глубокие межличностные связи.
Согласно данным центра, тревога относительно ИИ стремительно усиливается в 2025 году не только среди американцев — во всём мире люди всё чаще высказывают серьёзные опасения по поводу технологий искусственного интеллекта. Исследование Pew Research Center показало, что значительная часть жителей 25 стран скорее испытывает беспокойство (34% опрошенных), чем восторг, в связи с растущим внедрением ИИ в повседневность; 16% скорее воодушевлены, чем обеспокоены, а 42% в равной мере чувствуют и то, и другое.
По информации Pew Research Center, половина опрошенных американцев и итальянцев скорее тревожится, чем радуется активному распространению ИИ-технологий в быту. Значительная обеспокоенность также отмечается среди жителей Австралии (49%), Бразилии (48%), Греции (47%) и Канады (45%). Наименьшее беспокойство выразили респонденты из Южной Кореи (16%) и Индии (19%). Наибольший энтузиазм в отношении ИИ проявили в Израиле (29%), Южной Корее и Швеции (по 22%), а также в Нигерии (20%).
Эксперты также оценили степень информированности населения об искусственном интеллекте. Согласно результатам, 81% опрошенных в целом осведомлены о подобных технологиях, а 34% из них считают свои знания достаточно глубокими. Всего 14% респондентов признались в полном отсутствии информации об ИИ, и лишь 5% воздержались от ответа.
Специалисты Pew Research Center организовали исследование в 25 государствах, среди которых США, Великобритания, Германия, Кения, Индонезия, Турция и Мексика. В опросе поучаствовали 3605 человек.