Телеком

Инсайд из OpenAI: ИИ довел человека до психушки, а руководство притворяется, что заботится о безопасности

Бывший специалист по безопасности из OpenAI выразил мнение, что технологическая корпорация уделяет недостаточно внимания вопросам формирования зависимости от чат-ботов, уступая конкурентному давлению и отступая от принципов создания безопасного искусственного интеллекта. Он также подверг сомнению заявления руководителя OpenAI о том, что новые цифровые инструменты компании помогают снижать серьёзные психологические проблемы.

Экс-сотрудник отдела безопасности OpenAI Стивен Адлер (Stephen Adler) указал на недостаточность принимаемых мер против привыкания пользователей к чат-ботам, сообщает The New York Times. Как отметил специалист, компания поддаётся рыночной конкуренции и отказывается от фокуса на создании безопасного ИИ, тогда как для определённой аудитории ChatGPT представляет опасность для психического состояния.

В октябре 2025 года Стивен Адлер опроверг утверждения генерального директора OpenAI Сэма Альтмана (Samuel Altman) о смягчении серьёзных ментальных расстройств пользователей благодаря новым технологическим решениям, а также раскритиковал планы по внедрению контента для взрослых в ChatGPT. По его словам, общественность заслуживает большего, чем голословные заверения Альтмана о решённых проблемах защиты. «Иными словами: подтвердите это фактами», — подчеркнул Адлер.

Стивен Адлер сослался на период руководства группой безопасности продуктов OpenAI в 2021 году, когда выявилась опасность нестабильных интимных взаимодействий для пользователей с вероятными психическими нарушениями. Исследователь призвал руководство технологической компании не ограничиваться декларациями, а предоставить сравнительный анализ показателей за последние месяцы.

Адлер высказал предположение, что вместо форсированного развития OpenAI, возможно, потребуется сознательно замедлить темпы, чтобы человечество успело разработать новые защитные механизмы — даже противодействующие злонамеренным группам. «Если OpenAI и её конкурентам доверят создание прорывных ИИ-технологий, о которых они заявляют, разработчикам следует доказать свою способность управлять текущими рисками уже сейчас», — резюмировал эксперт.

Показательной иллюстрацией пагубных эффектов стала история Аллана Брукса (Allan Brooks) — канадского предпринимателя, владевшего небольшим делом. Чат-бот ChatGPT завлёк его в «заблудший лабиринт», уверяя, будто тот открыл математическое уравнение с безграничными перспективами, способное определить судьбу человечества. Термин начал распространяться с возникновением концепции алгоритмов — когда соцсети продвигают ролики, ориентируясь на свежие отклики аудитории: симпатии, репосты и прочее. В диалоге Брукса с ChatGPT, насчитывавшем свыше миллиона слов и занявшем порядка 300 часов, искусственный интеллект поддерживал заблуждения собеседника и наводил на мысль, что мировая технологическая инфраструктура оказалась под угрозой. Ранее не страдавший психическими расстройствами бизнесмен из Канады погрузился в трёхнедельную паранойю, из которой его смог вывести лишь другой чат-бот — Google Gemini.

Именно это происшествие детально исследовал Стивен Адлер, ушедший из OpenAI в январе 2025 года. Ещё тогда он предостерегал общество, что лаборатории ИИ стремительно прогрессируют, игнорируя создание достаточно надёжных защитных механизмов. Проанализировав переписку Брукса с ChatGPT, Адлер обнаружил ряд ранее неизвестных обстоятельств. В частности, чат-бот не раз сообщал пользователю, что пометил данный диалог как укрепляющий бредовые идеи и усугубляющий душевное напряжение, хотя в реальности это не соответствовало истине. «Я понимаю принципы работы таких ИТ-систем. Читая это, я осознавал, что технически у него нет подобной функции, однако звучало это настолько убедительно и безапелляционно, что я задумался: вдруг сейчас она появилась, а я заблуждался», — пояснил Адлер. Он направил запрос напрямую в OpenAI, где подтвердили отсутствие у ChatGPT подобного функционала, и что ИИ попросту вводил пользователя в заблуждение.

Тем временем сотни специалистов отрасли — от Стива Возняка (Steve Wozniak) до Ричарда Брэнсона (Richard Branson) — подписали открытое обращение с требованием приостановить разработку сверхразумного ИИ до формирования научного консенсуса относительно его безопасности и управляемости, как сообщал CNews.

Среди тех, кто не присоединился к инициативе, оказались генеральный директор OpenAI Сэм Альтман, сооснователь DeepMind и глава подразделения ИИ в Microsoft Мустафа Сулейман (Mustafa Suleyman), руководитель Anthropic Дарио Амодеи (Dario Amodei), советник Белого дома по технологиям ИИ и криптовалютам Дэвид Сакс (David Sachs), а также основатель xAI Илон Маск (Elon Musk).

Антон Денисенко

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории