Основатель и руководитель ряда технологических корпораций в декабре 2025 года высказал тревогу относительно ускоренного роста сферы искусственного интеллекта и робототехники, предложив притормозить эти процессы. Он полагает, что существующая динамика инноваций порождает существенные угрозы в сферах защиты, морали и управления, так как общество может не обладать достаточным временем для создания действенных регулирующих инструментов.
Генеральный директор Tesla и управляющий несколькими другими технологическими фирмами Илон Маск (Elon Musk) в декабре 2025 года обратился к создателям технологий искусственного интеллекта (ИИ) с призывом немедленно приостановить или, как минимум, снизить скорость разработок, сообщает OfficeChai. По его словам, нынешние темпы инноваций вызывают глубокую озабоченность в вопросах защищенности, этики и надзора.
С точки зрения Илона Маска, технологии ИИ эволюционируют столь стремительно, что существует риск, что человечество не успеет установить необходимые правила контроля и безопасности до того момента, когда эти технологии обретут чрезмерную мощь и самостоятельность.
Илон Маск акцентировал, что степень сосредоточенности на проблемах безопасности должна полностью соответствовать скорости и размаху технологической эволюции. Он выразил серьезные опасения, что существующие системы государственного регулирования и институционального надзора могут оказаться неэффективными в сдерживании угроз, связанных с ИИ и робототехникой, если текущие темпы прогресса сохранятся. Особо он отметил, что отсутствие ясных юридических и этических границ в развитии автономных информационных систем и сверхмощных ИИ-моделей способно повлечь за собой значительные непрогнозируемые последствия для социума, экономики и мировой стабильности в целом. По его мнению, для снижения этих рисков требуется безотлагательно создать и внедрить всеобъемлющие регулирующие меры, соответствующие быстроте и глубине происходящих технологических преобразований.
Маск указывает, что одна из центральных задач в будущем развитии ИИ состоит в том, чтобы эта технология оставалась лишь цифровым инструментом, служащим человечеству, а не стала потенциальной опасностью. Он убежден, что для достижения этой цели отраслевым специалистам и регулирующим органам необходимо уделять аспектам этики, безопасности и долгосрочной стабильности не меньше (а возможно, и больше) внимания, чем в 2025 году уделяется наращиванию производительности и расширению функционала ИИ-моделей. К первостепенным направлениям относятся: создание и внедрение стандартов открытости алгоритмов и процессов обучения; формирование действенных механизмов независимой оценки угроз на всех этапах существования информационных систем с ИИ; выработка согласованных на международном уровне норм и принципов, которые позволят своевременно обнаруживать и ограничивать неконтролируемое и потенциально рискованное применение наиболее мощных технологий.
Предприниматель и инноватор Илон Маск уверен, что лишь гармоничная стратегия, объединяющая погоню за технологическими достижениями с строгими защитными мерами, может гарантировать надёжное и этичное становление технологий искусственного интеллекта на благо человечества.
Глава SpaceX Илон Маск также отметил, что некоторые современные проекты в сфере машинного обучения (ML) и автономных компьютерных систем уже достигают такой степени сложности, что обществу может стать крайне трудно их полностью осмыслить и безопасно контролировать. Он считает, что такое положение дел делает заблаговременное и детальное обсуждение возможных угроз и последствий исключительно важным. Ключевую роль здесь играет межотраслевое сотрудничество, привлекающее специалистов из сфер технологий, юриспруденции, этики, философии и социального проектирования для комплексной оценки воздействия подобных систем.
Маск акцентировал, что до внедрения подобных технологий ИИ в жизненно важные области (энергетика, транспорт, медицина, оборона, финансовая система и другие), необходимо достичь согласия относительно допустимых пределов их использования и методов обеспечения защищённости.
Высказывания Илона Маска являются элементом гораздо более масштабной и оживлённой полемики, развернувшейся в 2025 году среди учёных, технологических лидеров и экспертов.
Ведущие эксперты и корпорации согласны, что стремительный рост темпов создания ИИ должен неразрывно сопровождаться сопоставимым усилением работы по следующим приоритетным аспектам: создание и реализация действенных инструментов государственного и глобального регулирования; обеспечение максимальной открытости алгоритмов, процедур обучения и принимаемых решений; комплексное выявление, измерение и минимизация рисков, связанных с применением ИИ, особенно в ответственных отраслях.
Согласно данным OfficeChai, только при синхронном и пропорциональном прогрессе по всем этим векторам можно добиться стабильного и этически обоснованного развития технологий ИИ даже в обозримой перспективе.
В 2025 году активисты инициировали открытое обращение с призывом остановить создание сверхразумного ИИ. Более тысячи известных личностей и публичных фигур — от Генри Чарльза (Henry Charles) и Меган Маркл (Meghan Markle) до Стива Бэннона (Steve Bannon) — подписали это письмо, выступающее за запрет разработки искусственного сверхинтеллекта (ИСИ или ASI), о чём сообщал CNews.
Эксперты выражают тревогу в связи с отсутствием к 2025 году надёжных защитных механизмов в данной сфере. Они настаивают на необходимости дождаться времени, когда подобные разработки получат одобрение научного сообщества и широких слоёв населения.
«Крупнейшие компании, работающие в сфере искусственного интеллекта, стремятся достичь в течение следующего десятилетия создания сверхразума, который сможет существенно превзойти человеческие возможности в решении практически любых интеллектуальных задач, — отмечается в документе. — Это порождает серьёзные риски: от экономической несостоятельности и лишения людей власти, свободы, гражданских прав и контроля над собственной жизнью до угроз национальной безопасности и даже возможного исчезновения человечества как вида».
Среди подписавших обращение — основатель корпорации Virgin Group Ричард Брэнсон (Richard Branson), сооснователь Apple Стив Возняк (Steve Wozniak) и соучредитель Skype Яан Таллинн (Jaan Tallinn), режиссёр и писатель Стивен Фрай (Stephen Fry), советник Папы Римского по вопросам ИИ Паоло Бенанти (Paolo Benanti), отставной адмирал ВМС США Майк Маллен (Mike Mullen), экс-президент Ирландии Мэри Робинсон (Mary Robinson). К ним присоединились нобелевские лауреаты: специалист по информатике Джеффри Хинтон (Geoffrey Hinton), экономист Дарон Аджемоглу (Daron Acemoglu), астрофизик NASA Джон Мазер (John Mather) и физик Франк Вильчек (Frank Wilczek).
«Мы требуем ввести мораторий на создание сверхинтеллекта, который должен оставаться в силе до тех пор, пока не будет достигнут научный консенсус о безопасности и управляемости таких систем, а также пока они не получат массовой общественной поддержки», — говорится в заявлении подписантов.