Специалисты управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ рассказали о методах защиты от мошеннических схем, розыгрышей и информационных операций, осуществляемых с применением технологий искусственного интеллекта.
В ведомстве привели пример популярного среди подростков розыгрыша: с помощью ИИ-инструментов создаются реалистичные изображения неопрятного мужчины, якобы находящегося в квартире, после чего подростки сообщают родителям, что впустили «бездомного». Реакция родителей фиксируется на видео и публикуется в социальных сетях.
Как отметили в МВД, хотя в подобных розыгрышах отсутствует злой умысел, они демонстрируют важную особенность современности – минимальные ресурсы, необходимые для создания дипфейков. Современные нейросети автоматически адаптируют выражения лица и голос под заданный текст, что позволяет создавать достоверно выглядящие видео. Именно эта реалистичность и создаёт серьёзные риски: под видом шуток могут распространяться фейковые новости, заявления от имени публичных лиц или мошеннические предложения инвестиций.
Для защиты от подобных угроз в МВД рекомендуют:
- проверять источник происхождения видео – контент без понятного происхождения требует дополнительной проверки через официальные аккаунты, сайты или Telegram-каналы;
- обращать внимание на визуальные артефакты: неровные контуры лица, «дрожащие» тени, неестественные движения губ и глаз, рассинхрон звука и видео;
- анализировать контекст – если человек в ролике говорит несвойственные для себя вещи, следует проверить соответствие содержания реальной ситуации и публичной позиции говорящего;
- использовать обратный поиск по изображению через Яндекс или Google Images для проверки оригинала кадров;
- применять специализированные сервисы, анализирующие вероятность синтетического монтажа.
Дополнительно сообщается, что российские лаборатории кибербезопасности уже тестируют нейросети-детекторы дипфейков, включая технологии распознавания подмены лица в видеозвонках. При этом в ведомстве подчёркивают, что ни одна технология не обеспечивает стопроцентной гарантии обнаружения подделок – алгоритмы оценивают лишь вероятность, а окончательное решение остаётся за человеком.




