В декабре 2025 года основатель и руководитель ряда технологических предприятий высказал тревогу относительно скорости развития искусственного интеллекта и робототехники, предложив сознательно замедлить эти процессы. Он полагает, что существующая динамика несет в себе значительные угрозы для безопасности, этических норм и управляемости, поскольку общество может не успеть создать необходимые регулирующие инструменты.
Генеральный директор Tesla и владелец нескольких других технологических компаний Илон Маск (Elon Musk) в декабре 2025 года обратился к разработчикам искусственного интеллекта (ИИ) с призывом немедленно приостановить или, как минимум, снизить темпы работ, сообщает OfficeChai. По его словам, нынешняя скорость прогресса порождает серьезные проблемы в сферах безопасности, этики и контроля.
Илон Маск считает, что технологии ИИ эволюционируют столь стремительно, что мир рискует не сформировать адекватные системы регулирования и защиты до того момента, когда эти технологии обретут чрезмерную мощь и самостоятельность.
Маск акцентировал, что степень внимания к проблемам безопасности должна полностью соответствовать скорости и размаху технологических изменений. Он выразил глубокие сомнения в способности действующих государственных и институциональных механизмов контроля эффективно управлять рисками, связанными с ИИ и робототехникой, если текущие темпы развития сохранятся. Особо он отметил, что отсутствие ясных правовых и этических ориентиров в создании автономных систем и сверхмощных ИИ-моделей способно привести к масштабным непредсказуемым последствиям для социума, экономики и глобальной стабильности в целом. Для снижения этих рисков, по его мнению, требуется безотлагательно создать и внедрить всеобъемлющие меры регулирования, соответствующие скорости и глубине технологической трансформации.
Маск указывает, что одна из центральных задач в развитии ИИ состоит в том, чтобы эта технология оставалась инструментом в руках человечества, а не превратилась в потенциальную опасность. Он убежден, что для достижения этой цели отрасль и регуляторы должны уделять вопросам этики, безопасности и долгосрочной устойчивости не меньше (а возможно, и больше) внимания, чем в 2025 году уделяется наращиванию производительности и функциональности ИИ-моделей. В перечень первоочередных шагов входят: создание и внедрение стандартов открытости алгоритмов и обучающих процессов; формирование действенных механизмов независимой оценки рисков на всех этапах жизненного цикла ИИ-систем; выработка согласованных на международном уровне норм и правил, которые позволят вовремя обнаруживать и ограничивать бесконтрольное и потенциально опасное применение наиболее мощных технологий.
Предприниматель и инноватор Илон Маск считает, что лишь гармоничная стратегия, объединяющая технологический прогресс с тщательными мерами безопасности, может гарантировать надёжное и этичное развитие искусственного интеллекта на благо человечества.
Глава SpaceX также отметил, что многие современные достижения в машинном обучении и автономных компьютерных системах уже достигают такой степени сложности, что обществу становится всё труднее их полностью осознавать и контролировать. Он полагает, что это делает крайне необходимым заблаговременное и глубокое обсуждение возможных угроз и последствий. Ключевую роль здесь играет межотраслевое сотрудничество, привлекающее специалистов из сфер технологий, права, этики, философии и социальных наук для комплексной оценки воздействия подобных систем.
Маск акцентировал, что до внедрения таких технологий ИИ в жизненно важные области (энергетику, транспорт, медицину, оборону, финансовые системы и другие) необходимо достичь согласия относительно допустимых пределов их использования и методов обеспечения защищённости.
Эти высказывания Илона Маска являются частью масштабной и активной дискуссии, развернувшейся в 2025 году среди научных, технологических и экспертных кругов.
Ведущие эксперты и корпорации сходятся во мнении, что стремительное развитие ИИ должно непременно сопровождаться равноценным усилением внимания к следующим приоритетам: создание и внедрение действенных инструментов государственного и глобального регулирования; обеспечение максимальной открытости алгоритмов, процессов обучения и принимаемых решений; комплексное выявление, оценка и минимизация рисков, связанных с применением ИИ, особенно в ответственных отраслях.
Согласно данным OfficeChai, только при одновременном и пропорциональном прогрессе по всем этим направлениям можно добиться стабильного и социально ориентированного развития технологий искусственного интеллекта даже в обозримой перспективе.
В 2025 году активисты инициировали открытое обращение с призывом запретить создание сверхразумного ИИ. Более тысячи известных личностей и общественных деятелей — от Генри Чарльза (Henry Charles) и Меган Маркл (Meghan Markle) до Стива Бэннона (Steve Bannon) — подписали это письмо, выступая против разработки искусственного сверхинтеллекта (ИСИ или ASI), о чём ранее сообщал CNews.
Активисты выражают тревогу по поводу отсутствия к 2025 году надёжных защитных механизмов в данной сфере. Они настаивают на необходимости дождаться времени, когда подобные разработки получат одобрение научного сообщества и широких слоёв населения.
«Крупнейшие компании, работающие в сфере искусственного интеллекта, стремятся достичь в течение следующего десятилетия создания сверхразума, который сможет существенно превзойти человеческие возможности в решении практически любых интеллектуальных задач, — отмечается в документе. — Это порождает серьёзные риски: от экономической несостоятельности и лишения людей власти, свободы, гражданских прав, достоинства и контроля до угроз национальной безопасности и даже возможного исчезновения человечества».
Среди подписавших обращение — основатель Virgin Group Ричард Брэнсон (Richard Branson), сооснователь Apple Стив Возняк (Steve Wozniak) и соучредитель Skype Яан Таллинн (Jaan Tallinn), режиссёр и писатель Стивен Фрай (Stephen Fry), советник Папы Римского по вопросам ИИ Паоло Бенанти (Paolo Benanti), отставной адмирал ВМС США Майк Маллен (Mike Mullen), экс-президент Ирландии Мэри Робинсон (Mary Robinson). Также свои подписи поставили нобелевские лауреаты: программист Джеффри Хинтон (Geoffrey Hinton), экономист Дарон Аджемоглу (Daron Acemoglu), астрофизик NASA Джон Мазер (John Mather) и физик Франк Вильчек (Frank Wilczek).
«Мы требуем ввести мораторий на создание сверхразума, который должен оставаться в силе до тех пор, пока не будет достигнут научный консенсус о безопасности и контролируемости таких систем, а также пока они не получат массовой общественной поддержки», — заявили авторы обращения.