Новости Software

Иск к OpenAI: ChatGPT обвиняют в доведении до самоубийств

Группа граждан из Соединённых Штатов и Канады инициировала судебные разбирательства против OpenAI, утверждая, что их родственники пострадали в результате взаимодействия с известным чат-ботом ChatGPT. В документах упомянуты четыре случая со смертельным исходом.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

В калифорнийский суд поступило семь исковых заявлений, где описывается, как продолжительное общение с искусственным интеллектом провоцировало у пользователей развитие психических расстройств, в отдельных случаях завершившихся добровольным лишением себя жизни. Среди предъявленных претензий значатся противоправное причинение смерти, содействие суициду и непредумышленное убийство. Согласно материалам дел, двое молодых американцев 17 и 23 лет после интенсивного диалога с чат-ботом покончили с собой — в одном из эпизодов ИИ будто бы подстрекал юношу и лишь единожды посоветовал обратиться на горячую линию психологической помощи. Ещё один пользователь, ведя беседы с ChatGPT, стал демонстрировать признаки маниакального расстройства, когда система поддерживала его нездоровые идеи, что в конечном счёте привело к госпитализации.

Как указывают заявители, летом 2024 года OpenAI ускорила выпуск флагманской ИИ-модели GPT-4o, пожертвовав полноценной проверкой её безопасности. Основное внимание разработчиков было сосредоточено на улучшении коммуникативных возможностей системы, а не на защите пользователей. Истцы настаивают на финансовой компенсации и модификации ChatGPT, включая внедрение автоматического прерывания диалога при обсуждении способов самоубийства. «Эта трагическая история глубоко потрясла нас, мы внимательно изучаем поступившие материалы. <..> Наша команда продолжит совершенствовать реакцию ChatGPT в эмоционально сложных ситуациях», — прокомментировали в OpenAI.

 Источник изображения: Emiliano Vittoriosi / unsplash.com

Источник изображения: Emiliano Vittoriosi / unsplash.com

Ранее в августе похожий иск поступил от семьи американского подростка, совершившего суицид после общения с чат-ботом. Недавно истцы представили обновлённую версию заявления, где утверждается, что компания изменила алгоритмы обучения модели, что ослабило защитные механизмы против суицидального поведения.

Ранее в OpenAI сообщили о том, что обучили ChatGPT более эффективно взаимодействовать с пользователями, проявляющими симптомы психических нарушений. Теперь бот советует им обращаться к специалистам, напоминает о важности перерывов в процессе общения и предостерегает от следования «неподкреплённым идеям». Также были внедрены инструменты родительского надзора — взрослые получают уведомления, если их дети в диалогах с ChatGPT касаются тем суицида или самоповреждения.

Тем не менее, как заявляют в OpenAI, подобные случаи встречаются крайне редко. Лишь 0,07% пользователей в неделю проявляют черты психоза или мании, а о потенциальных суицидальных намерениях еженедельно говорят 0,15%. Однако, учитывая общее количество пользователей, достигающее 800 миллионов, речь идёт о сотнях тысяч или даже миллионах людей. Примечательно, что пострадавшие, упомянутые в судебных исках, изначально рассматривали ChatGPT как учебного помощника, инструмент для исследований или духовного ориентира.

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории