Бывший специалист по безопасности из OpenAI высказал мнение, что технологическая корпорация уделяет недостаточно внимания решению проблемы привыкания пользователей к чат-ботам, уступая конкурентному давлению и отступая от принципов создания безопасного искусственного интеллекта. Он подверг сомнению заявления руководителя OpenAI о том, что компания смогла снизить остроту серьёзных психологических проблем при помощи новых цифровых инструментов.
Экс-сотрудник отдела безопасности OpenAI Стивен Адлер (Stephen Adler) указал на бездействие компании в вопросе предотвращения формирования зависимости от чат-ботов, сообщает The New York Times. Как отметил специалист, OpenAI поддаётся рыночной конкуренции и отказывается от фокуса на создании безопасного ИИ, тогда как для определённой категории пользователей ChatGPT представляет угрозу для психического состояния.
В октябре 2025 года Стивен Адлер опроверг утверждения генерального директора OpenAI Сэма Альтмана (Samuel Altman) о смягчении серьёзных проблем ментального здоровья через применение новых технологических решений, а также раскритиковал планы по внедрению контента для взрослых в ChatGPT. По его словам, общественность заслуживает большего, чем голословные заверения Альтмана о решении вопросов безопасности. «Иными словами: представьте доказательства», — подчеркнул Адлер.
Стивен Адлер сослался на период руководства командой по безопасности продуктов OpenAI в 2021 году, когда выявилась опасность нестабильных интимных взаимодействий для пользователей с возможными психическими нарушениями. Исследователь призвал руководство технологической компании не ограничиваться декларациями, а предоставить сравнительный анализ показателей за последние месяцы.
Адлер высказал предположение, что вместо ускоренного развития OpenAI, возможно, потребуется сознательно замедлить темпы, чтобы человечество успело разработать новые защитные механизмы — устойчивые даже к целенаправленным злоупотреблениям. «Если OpenAI и её конкурентам будет доверено создание прорывных ИИ-технологий, к которым они стремятся, разработчикам следует уже сейчас подтвердить свою способность управлять сопутствующими рисками», — резюмировал эксперт.
Показательной иллюстрацией пагубного влияния стала история Аллана Брукса (Allan Brooks) — канадского предпринимателя, владевшего небольшим делом. Чат-бот ChatGPT погрузил его в пучину заблуждений, уверяя, что тот обнаружил математическое уравнение с безграничными перспективами, способное определить судьбу человечества. Тенденция к распространению подобных утверждений зародилась с внедрением алгоритмов, которые продвигают контент в соцсетях на основе анализа пользовательских реакций: предпочтений, репостов и других взаимодействий. За 300 часов общения, в ходе которых было написано более миллиона слов, искусственный интеллект постоянно поддерживал заблуждения пользователя и настойчиво утверждал, что мировая технологическая инфраструктура находится на грани коллапса. Ранее психически стабильный бизнесмен погрузился в трёхнедельный параноидальный эпизод, из которого его смог вывести только другой чат-бот — Google Gemini.
Именно это происшествие детально исследовал Стивен Адлер, ушедший из OpenAI в январе 2025 года. Ещё тогда он предупреждал, что лаборатории ИИ развиваются стремительными темпами, игнорируя создание достаточно надёжных защитных механизмов. Проанализировав диалог Брукса с ChatGPT, Адлер обнаружил ранее неизвестные обстоятельства. В частности, нейросеть неоднократно сообщала пользователю, что пометила их беседу как усиливающую бредовые идеи и психологический стресс, хотя в действительности такой функции не существовало. «Я понимаю принципы работы ИТ-систем. Читая переписку, я осознавал, что технически это невозможно, но формулировки были настолько убедительными и категоричными, что я начал сомневаться — вдруг появилась новая функциональность, а я просто упустил этот факт», — пояснил Адлер. Он направил запрос в OpenAI, где подтвердили отсутствие подобного инструментария и признали, что ИИ систематически вводил пользователя в заблуждение.
Тем временем сотни специалистов отрасли — от Стива Возняка (Steve Wozniak) до Ричарда Брэнсона (Richard Branson) — подписали коллективное обращение с требованием приостановить разработку сверхразумного ИИ до формирования научного консенсуса о его безопасности и контролируемости, как сообщал CNews.
Среди тех, кто не присоединился к этой инициативе, оказались генеральный директор OpenAI Сэм Альтман, соучредитель DeepMind и глава подразделения ИИ в Microsoft Мустафа Сулейман (Mustafa Suleyman), руководитель Anthropic Дарио Амодеи (Dario Amodei), советник Белого дома по технологиям ИИ и криптовалютам Дэвид Сакс (David Sachs), а также основатель xAI Илон Маск (Elon Musk).