OpenAI подписала контракт с Министерством обороны США на использование своих технологий искусственного интеллекта, заняв место компании Anthropic, которая отказалась от сотрудничества по этическим соображениям. В ответ на общественный резонанс генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил о достижении новых договорённостей с военным ведомством, однако, как сообщает The Verge, реальная ситуация выглядит несколько иначе.
Источник изображения: Mariia Shalabaieva / unsplash.com
«Нашими ключевыми принципами безопасности являются запрет на массовое внутреннее наблюдение и сохранение человеческого контроля над применением силы, включая автономные вооружения. Министерство обороны, чьи законы и политика соответствуют этим принципам, согласилось с их включением в наш договор», — отметил Альтман. Тем не менее, в социальных сетях стали появляться вопросы о том, удалось ли OpenAI действительно закрепить эти ограничения в соглашении с Пентагоном. По мнению аналитиков, Министерство обороны США не пошло на уступки, и условия контракта с OpenAI оказались более выгодными для ведомства — всё зависит от трактовки формулировки «любое законное использование».
По информации осведомлённого источника издания, в ходе переговоров Пентагон не отказался от намерения собирать и обрабатывать крупные массивы данных о гражданах США; со своей стороны, OpenAI предоставила военным право на любые действия, которые считаются законными с технической точки зрения. За последние годы американское законодательство существенно расширило понятие «технической законности», включив в него, среди прочего, программы массового наблюдения. В OpenAI, однако, опровергли подобное толкование. «Наша система не может применяться для массового, неограниченного или обобщённого сбора и анализа данных о жителях США», — пояснил представитель организации.
Ключевое преимущество искусственного интеллекта заключается в его способности выявлять скрытые взаимосвязи, а человеческое поведение, по сути, представляет собой совокупность таких закономерностей. ИИ может интегрировать разнообразные источники информации о каждом человеке: данные о геолокации, истории веб-серфинга, личные финансовые сведения, записи с камер видеонаблюдения, сведения из избирательных реестров и многое другое — часть этих данных находится в публичном доступе, а часть приобретается у специализированных посредников. Компания Anthropic стремилась полностью исключить подобные практики вне зависимости от их юридической обоснованности, в то время как OpenAI ограничилась соблюдением существующих правовых норм. В числе упомянутых регуляторных актов — Четвертая поправка к Конституции США, Закон о национальной безопасности 1947 года, Закон о внешней разведке 1978 года, Исполнительный указ №12333, а также ведомственные директивы, определяющие конкретные цели в сфере внешней разведки.
Источник изображения: Growtika / unsplash.com
После событий 11 сентября 2001 года американские разведывательные службы расширили систему наблюдения, оставаясь, по их оценке, в рамках действующего законодательства. В 2013 году подрядчик АНБ Эдвард Сноуден обнародовал реальные масштабы этих программ: фиксацию телефонных переговоров абонентов Verizon и сбор персональных данных у технологических гигантов, включая Microsoft, Google и Apple. Как отмечают аналитики, исполнительный указ 12333 также предоставляет спецслужбам право перехватывать информацию за пределами США, даже если она касается американских граждан.
Глава Anthropic Дарио Амодеи обращал внимание на то, что существующие правовые нормы пока не охватывают весь спектр возможностей искусственного интеллекта в сфере массового наблюдения. Сэм Альтман, в свою очередь, акцентировал, что соглашение OpenAI с Министерством обороны США действует в рамках текущего законодательства, а значит, его условия не изменятся автоматически при появлении новых регуляций. Специалисты, однако, указывают, что формулировки, выбранные представителями компании, оставляют пространство для интерпретаций и не содержат чётких запретов. «Такие термины, как „неограниченный“, „обобщённый“ или „открытый“ подход, не означают абсолютного вето. Это скорее языковая конструкция, предоставляющая руководству свободу манёвра. <..> Она также позволяет руководству не вводить сотрудников в заблуждение, если Пентагон на законных основаниях станет применять большие языковые модели без прямого уведомления руководства OpenAI», — отмечают эксперты. Действующее соглашение с OpenAI и правовые рамки позволяют Пентагону, например, искать данные об американцах в базах иностранных спецслужб, приобретать информацию у агрегаторов данных и формировать поведенческие профили граждан на основе видеозаписей с камер наблюдения, активности в социальных сетях, онлайн-новостей, сведений об избирателях и прочих источников.
Вызывает вопросы и позиция OpenAI относительно автономного летального вооружения. В договоре компании с Пентагоном указано, что её ИИ «не будет задействован для самостоятельного управления автономным оружием в ситуациях, когда закон, нормативные акты или политика Министерства обязывают сохранять человеческий контроль», что согласуется с директивой Пентагона 2023 года, но не устанавливает дополнительных ограничений. Для контраста, Anthropic добивалась полного моратория на неконтролируемое человеком летальное автономное оружие, по крайней мере, до того момента, пока сама компания не признает эту технологию достаточно зрелой.
Источник изображения: Gavin Phillips / unsplash.com
Альтман также ссылается на другие меры, призванные обеспечить, чтобы Пентагон не злоупотреблял возможностями ИИ-моделей OpenAI. Часть сотрудников компании получит доступ к засекреченной информации для аудита систем; будут внедрены «классификаторы» — компактные ИИ-модели, способные отслеживать работу более крупных систем и при необходимости блокировать определённые операции. На практике эффективность этих мер может оказаться ограниченной. Классификатор не в состоянии удостовериться, проверял ли человек решение системы о применении удара, а также является ли запрос на создание профиля гражданина США единичным или частью программы массовой слежки. И если власти признают какую-либо операцию легальной, классификатор не сможет воспрепятствовать её выполнению.
В OpenAI подчёркивают «человеческую ответственность за применение силы, включая ситуации с автономными вооружениями»; в Anthropic же настаивают на том, чтобы такие системы не использовались «без соответствующего [человеческого] надзора». Это предполагает, что подход OpenAI допускает привлечение к ответственности уже после совершения атаки, тогда как позиция Anthropic требует участия людей до или в момент принятия ИИ решения о применении летальной силы. OpenAI также заявляет о технических мерах, предотвращающих создание «роботов-убийц» на базе их технологий: используются методы дообучения ИИ, а модели работают исключительно в облачной среде, а не на локальных устройствах. Однако для массового наблюдения подходит лишь облачная модель; в случае же с автономным оружием, окончательное решение об атаке может принимать сторонняя локальная система, в то время как решение OpenAI будет отвечать за все подготовительные этапы.
«Полностью автономные вооружения (которые полностью исключают человека из процесса выбора и поражения целей) могут стать крайне важными для национальной обороны. Однако современные системы ИИ пока не обладают достаточной надёжностью для [их] безопасного функционирования», — отметил генеральный директор Anthropic Дарио Амодеи.