В скором времени платформы для онлайн-общения могут столкнуться с масштабными атаками ИИ-ботов, которые копируют человеческие модели поведения и используют естественную склонность людей подчиняться мнению большинства. Такие программы смогут распространять ложную информацию, запугивать пользователей и манипулировать общественно-политическими процессами.
Источник изображений: Igor Omilaev / unsplash.com
Подобные скоординированные атаки способны превратиться в мощное оружие в информационном противостоянии. Боты на основе искусственного интеллекта будут воспроизводить поведение реальных людей, что позволит им оставаться незамеченными и формировать видимость органичной активности в сети. Хотя люди часто инстинктивно доверяют «коллективной мудрости», в этой ситуации ею будет управлять тот, кто контролирует ИИ-ботов — будь то анонимное лицо, организация, политическая сила, корпорация или государство, как отмечает норвежский профессор Йонас Кунст (Jonas Kunst). Тех, кто не поддержит виртуальное большинство, могут начать преследовать те же самые ИИ-боты, стремясь подавить любые аргументы, идущие вразрез с их позицией.
Эксперты не называют точных сроков, когда подобные рои ИИ-ботов могут активизироваться, но подчёркивают, что выявить их будет крайне сложно — нельзя исключать, что они уже используются. Опасность массовых атак усугубляется тем, что наши цифровые пространства и без того страдают от «размывания рационально-критического диалога и утраты общих представлений о реальности среди населения». Примитивные боты уже генерируют больше половины интернет-трафика, но пока они способны лишь на простые действия, вроде публикации однотипных провокационных сообщений — их легко обнаружить, и для работы требуются операторы.
Боты, построенные на больших языковых моделях, будут гораздо совершеннее — они смогут адаптироваться к сообществам, в которые внедряются, и создавать разнообразные персоналии с собственной памятью и идентичностью. Это будет напоминать «автономный организм, способный координировать действия, обучаться, эволюционировать и целенаправленно использовать человеческие слабости», подчеркнул профессор Кунст.
Опасность перестала быть теоретической. В минувшем году руководство платформы Reddit предупредило о возможном судебном преследовании учёных, которые в рамках эксперимента задействовали ИИ-ботов для воздействия на мнения около четырёх миллионов участников одного из сообществ. Согласно предварительным данным, ответы, сгенерированные ботами, оказывались в три–шесть раз эффективнее по убедительности, чем сообщения реальных пользователей. Злоумышленники смогут развернуть целые рои из сотен, тысяч или даже миллионов ИИ-агентов — масштаб будет ограничен лишь их вычислительными ресурсами и способностью модераторов соцсетей противодействовать этой угрозе. Однако дело не только в количестве: в небольших сообществах может хватить и нескольких таких агентов, поскольку массовый приток новых участтелей неизбежно вызовет подозрения.
Учитывая, что ИИ-агенты способны вести свои кампании непрерывно, без отдыха и усталости, обычные пользователи социальных сетей в одиночку не смогут им противостоять. Администрациям платформ, с другой стороны, важно сохранять аудиторию реальных людей, поэтому ожидается внедрение более строгих методов проверки подлинности аккаунтов. Проще говоря, пользователям придётся подтверждать, что они не являются ботами. Но и это не абсолютное решение — в ряде стран анонимность служит защитой для политических диссидентов. Тем не менее, усиленная аутентификация серьёзно осложнит жизнь злоумышленникам.
В числе других мер рассматриваются системы мониторинга сетевого трафика в реальном времени для обнаружения статистических отклонений, а также формирование сообщества экспертов и организаций, которые будут исследовать подобные атаки, оперативно на них реагировать и информировать общественность о рисках. Игнорирование этих инструментов может привести к срыву выборов и других значимых общественных процессов.