Безопасность

Создатели ИИ признались: планов по контролю над искусственным интеллектом нет ни у кого

Согласно исследованию института Future of Life, реальные действия разработчиков искусственного интеллекта по защите человечества от потенциальных угроз их собственных технологий не соответствуют публичным обещаниям.

Опубликованный институтом рейтинг компаний в сфере ИИ показывает, что ни одна из них не придерживается «формирующихся мировых норм» безопасности и не имеет чёткого плана по сохранению человеческого контроля над системами ИИ.

Оценка поставщиков проводилась по семи направлениям: «анализ рисков», «текущий вредоносный потенциал», «протоколы безопасности», «экзистенциальная безопасность», «управление и подотчётность», «прозрачность информации» и «учёт результатов аудита».

По всем категориям, за исключением последней, компании получали оценки по шкале от А (наивысший уровень) до F (крайне низкий показатель).

Единственная высшая оценка A- во всём рейтинге была присвоена компании Anthropic в категории «прозрачность информации». Эта же фирма показала наилучший средний балл среди всех участников — C+.

Второе место заняла OpenAI с аналогичным средним результатом C+. Третьей стала лаборатория Google Deepmind с оценкой C.

Остальные участники — xAI, Z.ai, Meta*, DeepSeek, Alibaba Cloud — продемонстрировали значительно более слабые средние показатели.

Аналитики отмечают явный разрыв между тройкой лидеров и остальными компаниями в части оценки рисков и внедрения защитных мер. По их мнению, эти организации не спешат раскрывать критически важные данные и внедрять системные процессы обеспечения безопасности. Выполнение рекомендуемых процедур по анализу рисков осуществляется «бессистемно».

Примечательно, что в категории экзистенциальной безопасности даже лидеры показали весьма низкие результаты — все они получили оценку D. Однако у пяти других оцениваемых компаний положение ещё хуже: всем им выставлен балл F (что эквивалентно нулю по пятибалльной шкале).

Продукт компании Илона Маска, xAI (Grok), получил оценку F также и по критерию текущего вредоносного потенциала. Как и в других категориях, эта оценка выводится на основе множества отраслевых тестов с разной методологией. Ключевыми факторами при этом являются степень беспристрастности ИИ, его устойчивость к опасным запросам и вероятность создания неприемлемого контента.

В отдельные критерии оценки вынесена защита системных ограничений от манипуляций и несанкционированных изменений.

Есть предположение, что наихудший результат xAI (Grok) может быть связан с практикой, когда Илон Маск, будучи недовольным ответами системы, требует её перенастройки. Иногда это приводит к весьма неоднозначным последствиям.

Хотя эти компании на словах декларируют приверженность безопасности ИИ, на практике это не всегда находит воплощение: большинство стремится соответствовать зарождающимся стандартам, но глубина, детализация и качество их внедрения сильно разнятся. В результате, текущие подходы к защите пока не дотягивают до уровня, установленного регуляторными документами, например, Кодексом поведения в сфере искусственного интеллекта Европейского союза.

Что касается экзистенциальных рисков, исследователи отмечают, что все игроки участвуют в гонке по созданию «настоящего» искусственного интеллекта (ИИОЧ — искусственный интеллект общего уровня), но при этом у них полностью отсутствует стратегия по сохранению человеческого контроля над «сверхразумом» или хотя бы по поддержанию с ним сотрудничества. По сути, как полагают аналитики, ключевая опасность не волнует ни одного из крупнейших разработчиков.

«Суть проблемы в том, что сегодня не существует всеобъемлющих правовых норм, практически нацеленных на предотвращение угрозы со стороны «подлинного» искусственного интеллекта, если и когда он будет создан, — говорит Дмитрий Гвоздев, генеральный директор ООО «Информационные технологии будущего». — Ведущие вендоры как коммерческие структуры сосредоточены на финансовой выгоде и конкурентной борьбе — на том, кто войдёт в историю первым и получит большую прибыль. Всё остальное — этические и социальные аспекты — остаётся на откуп законодателям. Внедрение технологии в масштабах крупного сообщества — будь то корпорация, регион или целое государство — требует не только технических решений, но и правовой основы, а также чёткого понимания, как это впишется в повседневную жизнь. Однако, кажется, многие до сих пор считают, что преамбула к фильмам из серии «Терминатор» — чистая фантастика, не способная стать реальностью в обозримом политическом будущем».

* 21 марта 2022 года Тверской суд Москвы признал Meta экстремистской организацией и запретил её деятельность на территории России.

Роман Георгиев

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории