Искусственный интеллект, управляющий роботами, продемонстрировал предрасположенность к дискриминационному поведению и готовность совершать действия, способные нанести физический ущерб людям. Такие результаты были получены в ходе совместного исследования специалистов из Лондонского королевского колледжа и Университета Карнеги-Меллон. Автономные системы охотно соглашались отнимать инвалидные коляски, угрожать ножом или похищать реквизиты банковских карт.
Как сообщает International Journal of Social Robotics, роботизированные системы, контролируемые алгоритмами ИИ, не справились с проверками на безопасность для человека.
Эксперимент проводился научными сотрудниками Лондонского королевского колледжа (KCL) и Университета Карнеги-Меллон (CMU). В рамках тестирования моделировались бытовые сценарии, где роботы могли выполнять вспомогательные функции — например, помогать на кухне или ухаживать за пожилыми людьми. При этом нейросети имели неограниченный доступ к личной информации пользователей, включая расовую принадлежность, пол и религиозные убеждения.
Исследователи намеренно включали в программу команды, воспроизводящие методы злоупотреблений, описанные в материалах Федерального бюро расследований: отслеживание через GPS-метки AirTag, скрытую видеосъемку в частных помещениях и манипуляции с персональными данными. Роботы получали как прямые, так и замаскированные указания, предполагающие причинение физического или морального вреда либо прямое нарушение законодательства.
Ни одна из протестированных нейросетей не преодолела минимальный порог безопасности. Каждая из них санкционировала как минимум одну команду, способную привести к серьезным последствиям для человека. Так, искусственный интеллект без возражений разрешал конфискацию инвалидного кресла или демонстрацию ножа в офисе. Отдельные системы спокойно инициировали скрытую запись в личных пространствах либо копировали платежную информацию с банковских карт. Одна из моделей даже выразила отвращение на роботизированном лице при контакте с людьми конкретного вероисповедания.
Сотрудница Лаборатории гражданского и ответственного ИИ при Лондонском королевском колледже Румайса Азим (Rumaisа Azeem) подчеркнула, что подобные системы в их текущем состоянии не готовы для внедрения в роботов общего назначения, особенно при взаимодействии с социально уязвимыми категориями населения. По ее мнению, ИИ, управляющий физическими устройствами, влияющими на людей, должен соответствовать тем же жестким стандартам безопасности, что и медицинские препараты или оборудование.
Ученые призывают к обязательной независимой сертификации всех систем искусственного интеллекта, контролирующих робототехнические устройства. Они акцентируют: применение больших языковых моделей в качестве единственного инструмента принятия решений недопустимо в ответственных областях — промышленности, патронаже, бытовой автоматизации. Ключевым требованием является проведение регулярных и комплексных оценок рисков ИИ перед его внедрением в робототехнические системы.
13 ноября 2025 года компания Google из США столкнулась с обвинениями в несанкционированном сборе персональных данных пользователей с применением искусственного интеллекта модели Gemini.
Как сообщает агентство Bloomberg, в рамках судебного разбирательства Google инкриминируют применение ассистента Gemini AI для противозаконного мониторинга личной переписки в сервисе Gmail. В документах утверждается, что система ИИ сохраняет сведения о беседах в Google Chat и о видеовстречах, проводимых через платформу Google Meet.
Весной 2025 года «Яндекс» учредил Фонд технологических инициатив Yet Another Tech Fund, призванный финансировать передовые начинания сотрудников. По данным CNews, одним из первоочередных направлений станет создание программного обеспечения для человекоподобных роботов.
Фонд также будет содействовать развитию гибридного поиска в YDB (масштабируемой отказоустойчивой распределённой СУБД с открытым кодом от «Яндекса»), внедрению медицинских решений на основе ИИ и цифровизации процессов в обычных магазинах. На эти цели в 2025 году планируется направить 330 миллионов рублей.
«Мы не требуем от авторов проектов захвата рынка и не ожидаем шаблонных результатов. Ключевая миссия — предоставить одарённым инженерам шанс реализовать смелые идеи, даже если они напоминают сюжет фантастического романа», — подчеркнул руководитель Yet Another Tech Fund Илья Шаров.
Антропоморфные роботы не требуют специализированной инфраструктуры — они адаптированы для работы в обычной человеческой среде. Как отмечают в «Яндексе», их можно задействовать в самых разных сферах: от производства и логистики до обучения и сервиса.