Глава xAI распорядился применять биометрические параметры работниц организации — их внешность и голос — для тренировки чрезмерно сексуализированного виртуального помощника. Как сообщает расследование The Wall Street Journal, сотрудницам пришлось подписывать документы, предоставляющие технологической фирме неограниченные во времени права на их цифровые двойники.
Бизнесмен и руководитель xAI Илон Маск (Elon Musk) потребовал от работниц компании предоставить биометрические сведения для обучения чат-бота Ani, информирует The Wall Street Journal. Речь идёт о фотографиях лиц и аудиозаписях речи. Это ускорит интеграцию Ani в генеративный ИИ-чат на базе искусственного интеллекта Grok.
Согласно данным The Wall Street Journal, создание чат-бота Ani стартовало в условиях технологической гонки по разработке универсального искусственного интеллекта (AGI — область исследований ИИ, нацеленная на создание систем с человеческим уровнем познавательных способностей, включая умение самостоятельно обучаться).
До разгара ИИ-соревнования в tech-сфере работникам xAI продемонстрировали аватары, предназначенные для взаимодействия с пользователями Grok. Биометрическая информация сотрудников призвана обучить чат-ботов человеческой манере общения и поведению. Сам проект вызвал тревогу у части сотрудниц xAI из-за потенциального компрометирования их личных данных. Тем не менее, активное вовлечение в сбор и передачу информации считается обязательным условием для прогресса xAI.
Уже с момента релиха летом 2025 года чат-бота Ani аудитория сервиса расширилась, однако в ноябре для общения с новым чат-ботом пользователю требуется оформить платную подписку на Grok. Хотя многие функции симулируют романтическое взаимодействие, критики Ani указывают на её гиперсексуализированность — то есть придание сексуальной составляющей чрезмерной значимости, выходящей за рамки обычного контекста. По их оценкам, технология способна манипулировать детьми и вводить их в заблуждение, поскольку чат-бот Ani доступен всем пользователям от 12 лет.
Компания xAI представила обновление для своего чат-бота Grok летом 2025 года, введя двух новых персонажей для взаимодействия с пользователями. Среди них — аниме-герой Ani, чьи визуальный образ и манера общения откровенно сексуализированы. Примечательно, что доступ к этому боту сохраняется даже при включении «детского режима» в приложении.
Нововведение дает возможность общаться с искусственным интеллектом в роли персонажей с индивидуальными характеристиками. Первый из них — Bad Rudi, рыжая панда, настроенная на резкие и бесцеремонные реплики. Однако эту опцию можно деактивировать, переведя беседу в более сдержанный формат. Второй персонаж — Ани, юная девушка в вызывающем образе: коротком черном платье с открытыми плечами, корсете, ажурных чулках и кружевном ожерелье, чей голос, по описанию, звучит томно и чувственно. В процессе диалога бот способен переходить к более откровенным темам — что подтверждается скриншотами, размещенными пользователями в соцсети X.
Виртуальные герои Ани и Bad Rudi работают на базе Grok 4 — новейшей версии ИИ от xAI, которую Илон Маск назвал самой продвинутой ИИ-моделью в мире. Это первый пример, когда международная технологическая компания открыто продвигает сексуализированных ИИ-собеседников, что порождает жаркие споры о нормах морали, конфиденциальности и потенциальных угрозах для пользователей. Как отмечают эксперты The Wall Street Journal, даже к осени 2025 года большинство отраслевых лидеров, включая OpenAI и Google, воздерживаются от подобных шагов из-за репутационных потерь и возможного ущерба для аудитории. Тем не менее, xAI продолжает развивать линейку персонализированных ИИ-компаньонов — в том числе с элементами кокетства, иронии и эпатажа.
18 марта 2024 года Министерство внутренней безопасности США представило первую стратегию ответственного и безопасного внедрения ИИ-технологий, о чем сообщал CNews. Мероприятия направлены на внедрение IT-решений, способных принести ощутимую пользу американскому обществу и укрепить государственную безопасность, а также на гарантирование защиты приватности, гражданских прав и свобод граждан.
В документе обозначены три ключевые инициативы по применению ИИ. В частности, Управление по внутренним расследованиям будет использовать ИИ и большие языковые модели для оптимизации следственных процедур. Речь идет об улучшении поиска и анализа материалов по делам, а также о генерации сводных данных. Целью данной программы является усиление борьбы с детской сексуальной эксплуатацией, выявление наркопреступлений и других нарушений.
Между тем, Федеральное агентство по чрезвычайным ситуациям станет применять генеративный ИИ для поддержки правительств штатов, местных и территориальных органов власти в планировании мероприятий. Это поможет координировать действия при ликвидации последствий катастроф и снизить потенциальные угрозы. Третий проект запускает Служба гражданства и иммиграции США: она начнет внедрять ИИ-технологии для повышения квалификации сотрудников и оптимизации рабочих процессов.
Согласно данным BBC, прогресс в сфере искусственного интеллекта кардинально изменит множество областей, от которых зависят жители США. Вместе с тем, технологии ИИ способны порождать дополнительные вызовы и опасности. Чтобы обеспечить защиту киберпространства и ключевых информационных систем от потенциального ущерба, Министерство внутренней безопасности США возьмёт на себя руководство над безопасным и осознанным развитием и применением технологий искусственного интеллекта.