В пятницу вечером Сэм Альтман (Sam Altman) объявил, что под его руководством OpenAI подписала контракт с Министерством обороны США на интеграцию искусственного интеллекта в его закрытые системы. Чтобы развеять общественные опасения и сомнения относительно условий соглашения, Альтман провёл сессию ответов на вопросы, подчеркнув приоритет демократически избранного правительства над корпоративными принципами любой частной фирмы.
Источник изображения: OpenAI
Напомним, что предыдущая попытка Пентагона внедрить ИИ от Anthropic в свои секретные системы без ограничений на применение столкнулась с сопротивлением разработчиков, что привело к расторжению контракта на $200 млн и включению Anthropic в перечень ненадёжных поставщиков. Всем государственным структурам США было запрещено использовать её технологии, и им дано шесть месяцев на поиск альтернатив сервисам компании.
Альтман в своём аккаунте в социальной сети X отметил, что соглашение между OpenAI и Пентагоном было достигнуто в ускоренном порядке для снижения напряжённости, тогда как в обычной ситуации переговоры заняли бы больше времени. Он признал, что если эта сделка поможет смягчить противоречия между Министерством обороны США (недавно переименованным в Министерство войны) и отраслевыми представителями, это положительно отразится на репутации OpenAI. Если же разногласия сохранятся, компанию, по словам Альтмана, могут обвинить в поспешности и неосмотрительности при заключении контракта. Тем не менее, на данный момент он видит в этой области больше обнадёживающих для OpenAI сигналов.
Рассуждая о том, почему американские военные выбрали в качестве подрядчика именно OpenAI, а не Anthropic, Альтман предположил, что стороны быстрее нашли взаимопонимание на уровне формулировок договора, чем в случае с конкурентом. Глава OpenAI высказал мнение, что Anthropic, вероятно, стремилась сохранить больший операционный контроль над использованием своих технологий Пентагоном, чем это планирует делать его компания.
Обсуждая концепцию «красных линий», Альтман выделил три основных правила, которые OpenAI намерена соблюдать в вопросах этичного использования ИИ своими заказчиками. При этом, по его словам, компания открыта для пересмотра этих правил по мере технологического прогресса, однако в определённых ситуациях список ограничений может расшириться. «Мы не против, чтобы ChatGPT анализировал спорные темы и давал на них ответы. Но мне бы крайне не хотелось, чтобы нам пришлось принимать решение в случае, если ядерный удар будет нацелен на Соединённые Штаты», — разъяснил Альтман позицию OpenAI. Он подчеркнул, что страной управляют демократически избранные власти, и было бы неправильно, если бы частная корпорация самостоятельно определяла этические рамки в наиболее критических сферах.
Как отметил Альтман, диалог между OpenAI и Пентагоном об интеграции ИИ-решений компании в открытые бизнес-процессы ведомства длился несколько месяцев, однако к вопросам, связанным с секретными операциями, стороны подошли лишь недавно. В ходе переговоров с Министерством обороны США, утверждает Альтман, OpenAI стремилась обеспечить равноправные условия сотрудничества для всех игроков рынка. Глава компании добавил, что позиция Anthropic в этой истории выглядит небезупречной: сначала она указывает правительству на потенциальные международные риски в области ИИ, а затем отказывает ему в поддержке, выдвигая различные обвинения. Реакцию американских властей в данной ситуации, по мнению Альтмана, можно считать закономерной. Он уверен, что руководители частных фирм не должны обладать властью, сравнимой с полномочиями избранных представителей, но оказывать им содействие — вполне допустимо.
Альтман привёл два примера применения ИИ в интересах национальной безопасности, иллюстрирующих его практическую ценность. Во-первых, искусственный интеллект способен помочь в противодействии масштабным кибератакам. Во-вторых, его использование в сфере биобезопасности может стать инструментом для предотвращения новых пандемий.