Эксперты в области искусственного интеллекта предупреждают о резком росте дипфейк-атак в России. По их оценкам, к концу текущего года каждый второй россиянин может столкнуться с подобными мошенническими схемами.
Если еще два года назад с фальшивыми аудио- и видеоматериалами сталкивались лишь 10% пользователей интернета, то в ближайшее время масштаб угрозы значительно увеличится.
В 2024-2025 годах основную опасность представляют поддельные видеокружки и голосовые сообщения в мессенджерах. Однако уже в 2026 году ожидается появление дипфейк-звонков в реальном времени, когда злоумышленники смогут имитировать голоса близких или коллег. Современные технологии позволяют создавать убедительные имитации, которые сложно отличить от реальных записей даже опытным пользователям. Мошенники могут воспроизводить эмоциональные сценарии – например, имитировать голос «дочери, попавшей в беду» или «коллеги, срочно требующего перевода денег».
Видеокружки и голосовые сообщения стали излюбленным инструментом злоумышленников из-за отсутствия надежных механизмов проверки их подлинности. В отличие от телефонных звонков, где существуют определители номера и другие защитные системы, мессенджеры не позволяют определить источник таких материалов. Невозможно установить, были ли они созданы непосредственно в приложении или сгенерированы с помощью сторонних программ и загружены вручную.
Технологии создания дипфейков стали значительно доступнее и совершеннее. Если ранее для производства убедительных подделок требовались специальные навыки и значительное время, то сегодня этот процесс упростился настолько, что освоить его может практически любой человек. Качество фальшивых аудио- и видеоматериалов продолжает улучшаться, что в ближайшем будущем может сделать их практически неотличимыми от оригиналов.