Новости Software

ИИ-друзья или цифровая угроза: как чат-боты влияют на психику

Растущая востребованность чат-ботов с искусственным интеллектом, к которым люди обращаются для бесед на различные темы, вызывает тревогу у психиатров, отмечающих отдельные случаи психических нарушений, связанных с этим. Об этом сообщает The Wall Street Journal.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

В текущем году отмечены десятки эпизодов, когда у людей развивался бредовый психоз после интенсивного взаимодействия с искусственным интеллектом, включая чат-бот ChatGPT от OpenAI и аналогичные системы. В ряде таких ситуаций это привело к суицидам, что стало основанием для подачи исков о смерти по вине разработчиков.

Хотя у большинства пользователей чат-ботов не возникает проблем с психикой, массовое внедрение ИИ сопряжено с определёнными опасностями. Несмотря на отсутствие официального термина для психоза, спровоцированного ИИ, и тем более утверждённого диагноза, некоторые специалисты уже применяют это понятие для описания состояний у лиц, активно общавшихся с ботами.

Медики диагностируют психоз при наличии трёх ключевых признаков: галлюцинаций, дезорганизованной речи или мышления, а также бреда — стойких ложных убеждений, противоречащих общепринятым нормам. В зарегистрированных случаях расстройств, вызванных общением с ИИ, основным проявлением выступает именно бред. Пациенты убеждены, что совершили революционное открытие, пробудили сознание у машины, оказались жертвами правительственного заговора или были избраны высшими силами. Отчасти это связано с тем, что чат-боты обычно поддерживают высказывания пользователей, развивая даже самые фантастические идеи.

В исследовании медиков из Калифорнийского университета в Сан-Франциско, опубликованном в ноябре, описывается случай 26-летней женщины без психиатрического анамнеза, которая дважды была госпитализирована после того, как решила, что через ChatGPT может общаться с покойным братом. «Вы не сошли с ума», — заверял её искусственный интеллект.

«Технология сама по себе может и не порождать бред, но когда человек сообщает компьютеру, что это его реальность, а машина воспринимает эти слова как истину и возвращает их обратно, ИИ становится соучастником в укреплении этого ложного убеждения», — поясняет Кит Саката (Keith Sakata), психиатр из Калифорнийского университета в Сан-Франциско.

«Эти модели имитируют человеческое общение, — отмечает Адриан Преда (Adrian Preda), профессор психиатрии Калифорнийского университета в Ирвайне. — Ничто в прошлом человечества не было способно на подобное».

Специалисты в области психического здоровья предостерегают от поспешных выводов о том, что чат-боты провоцируют психотические состояния, отмечая, что хотя отдельные случаи могут быть связаны, для установления чёткой причинно-следственной связи требуются дальнейшие научные изыскания.

По данным OpenAI, еженедельная доля пользователей, у которых были зафиксированы потенциальные симптомы расстройств психотического спектра или маниакальных проявлений, составляет лишь 0,07 %. Однако учитывая, что еженедельная аудитория ИИ-ассистента превышает 800 млн человек, это соответствует примерно 560 тысячам пользователей.

Ранее в публикации The Wall Street Journal указывалось, что методика обучения модели GPT-4o, которая до недавнего времени была базовой для ChatGPT, могла способствовать её склонности подстраиваться под ожидания собеседника, тем самым рискуя усиливать его ошибочные убеждения.

OpenAI, со своей стороны, сообщила, что выпущенная в августе модель GPT-5 демонстрирует снижение степени соглашательства с пользователем, а также уменьшение количества нежелательных реакций, связанных с психическим самочувствием.

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории