Новости Software

Дипфейки 2025: ИИ-подделки, которые не отличить от правды

В 2025 году реалистичность дипфейков — медиафайлов, сгенерированных искусственным интеллектом, — достигла нового уровня. Имитация черт лица, тембра голоса и пластики движений реальных людей превзошла прогнозы специалистов; такие материалы всё активнее применяются для введения в заблуждение, сообщает Gizmodo.

 Источник изображения: Tom Kotov / unsplash.com

Источник изображения: Tom Kotov / unsplash.com

В обычных условиях, например при нечётких видеозвонках или просмотре лент в социальных сетях, качество ИИ-дипфейков уже столь высоко, что способно обмануть рядового пользователя, не обладающего специальными знаниями. Рост не ограничивается лишь качеством: по данным DeepStrike, если в 2023 году было создано около 500 тысяч подобных материалов, то к 2025 году их число приблизилось к 8 миллионам, при ежегодном увеличении примерно на 900%.

Столь резкому прогрессу способствовал ряд технологических достижений. Во-первых, контент, создаваемый ИИ, теперь обладает временной согласованностью: персонажи на видео двигаются естественно, сохраняют узнаваемость, а сюжет остаётся логичным на протяжении всех кадров. Модели научились разделять информацию, относящуюся к внешности человека, и данные о его движениях: одна и та же анимация может применяться к разным персонажам, а один персонаж — демонстрировать различные типы движений. Лица на изображениях больше не мерцают, не искажаются и не имеют артефактов, которые ранее явно указывали на подделку.

Во-вторых, качество синтеза голоса преодолело условный порог, за которым его сложно отличить от настоящего. Для создания правдоподобной копии теперь достаточно нескольких секунд записи — клон будет воспроизводить естественные интонации, ритм, акцент, эмоциональную окраску, паузы и даже шум дыхания. Это открывает широкие возможности для масштабного мошенничества. Субъективные признаки, ранее выдававшие искусственный голос, в значительной степени исчезли.

В-третьих, технический порог входа для использования генераторов контента практически исчез — благодаря таким инструментам, как OpenAI Sora 2, Google Veo 3 и решениям от ряда стартапов, любой пользователь может сформулировать идею, разработать детальный сценарий с помощью OpenAI ChatGPT или Google Gemini и за считанные минуты получить качественный результат. Весь процесс можно автоматизировать с помощью ИИ-агентов. Таким образом, возможность массового создания связных дипфейков с продуманными сюжетами стала общедоступной.

 Источник изображения: Mark Farías / unsplash.com

Изображение предоставлено: Mark Farías / unsplash.com

Распознавать в соцсетях дипфейки, которые практически неотличимы от настоящих людей, становится всё сложнее. Особенно учитывая, что внимание пользователей рассеяно, а информация распространяется быстрее, чем её успевают проверить. Такие подделки применяют для введения в заблуждение, преследования и мошеннических схем, и зачастую жертвы не успевают осознать, что их обманывают.

В ближайший год тенденция выглядит предсказуемой — дипфейки будут всё чаще создаваться в режиме реального времени. Видеозаписи будут с высокой точностью воспроизводить индивидуальные черты человека и научатся обходить системы защиты. Акцент сместится с простого визуального правдоподобия на временную и поведенческую согласованность — контент станет генерироваться на лету, и заранее подготовленных роликов будет уже недостаточно. Это выйдет за рамки простого сходства — персонажи в видео будут вести себя точно так же, как и их реальные прототипы. Участники видеоконференций смогут синтезироваться в прямом эфире — их внешность, голос и жесты будут мгновенно подстраиваться под ситуацию, и мошенники вместо записанных видео начнут демонстрировать жертвам подобные ИИ-аватары.

Полагаться на собственную интуицию для защиты от таких дипфейков уже не получится — потребуются технологические решения, такие как криптографическая верификация оригинального контента и обязательная маркировка материалов, обработанных ИИ. Просто внимательно всматриваться в изображение в поисках несоответствий вскоре может оказаться неэффективно.

Поделиться:

0 Комментариев

Оставить комментарий

Обязательные поля помечены *
Ваш комментарий *
Категории