В текущем сезоне выяснилось, что стандартная капча (CAPTCHA) в её базовой форме больше не служит серьёзной преградой для искусственного интеллекта, стремящегося совершать действия, имитирующие человеческое поведение. Согласно данным свежего исследования, системы ИИ теперь могут участвовать в онлайн-опросах, убедительно притворяясь людьми.
Источник изображения: Unspalsh, Christin Hume
Разработанный Шоном Уэствудом (Sean Westwood) из Polarization Research Lab программный инструмент на основе ИИ демонстрировал в эксперименте успех в 99,8% случаев, с аналогичной вероятностью имитируя участие реального человека в социологических интернет-опросах. Этот агент, созданный на Python, является платформенно-независимым и может быть интегрирован с большинством распространённых крупных языковых моделей от разных вендоров.
В ходе основной части эксперимента автор задействовал модель o4-mini от OpenAI, однако в некоторых тестах программа успешно справлялась и с использованием других языковых моделей. Её настройка предполагает, что перед началом опроса пользователь вводит краткую характеристику (до 500 слов) личности, ответы которой требуется симулировать.
Агент обучен распознавать и обходить проверочные вопросы и уловки, которые создатели анкет обычно добавляют для отсеивания невнимательных участников и ботов. Ему не составляют труда даже специализированные фильтры, например, задачи, легко решаемые ИИ, но часто сложные для обычных респондентов. Программа имитирует время, затрачиваемое на чтение вопросов, в зависимости от образовательного уровня симулируемой личности, может медленно печатать в полях для свободного ответа, допускать орфографические ошибки и исправлять их, если интерфейс это позволяет. В будущем к агенту планируется добавить модуль для автоматического прохождения капчи.
Как отмечает автор работы, наличие подобных инструментов делает фальсификацию данных опросов общественного мнения опасным инструментом манипуляции. Анализ исследований, проводившихся перед президентскими выборами 2024 года в США, показывает, что для смещения результатов в желаемую сторону иногда достаточно всего от 10 до 52 поддельных ответов, даже в масштабах общенационального опроса.
Противодействовать подобным нарушениям возможно за счёт введения более строгих правил организации опросов. Однако усиленные меры защиты, такие как верификация личности по документам или биометрическим данным, способны усложнить процедуру и уменьшить откровенность участников. Очевидно, что с прогрессом искусственного интеллекта к надёжности данных онлайн-опросов необходимо будет относиться с особым вниманием.