Версия // Общество // Жителям России назвали способы защиты от розыгрышей с помощью ИИ

Жителям России назвали способы защиты от розыгрышей с помощью ИИ

27
Жителям России назвали способы защиты от розыгрышей с помощью ИИ (фото: pxhere.com/lpolop)
В разделе

Специалисты управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ рассказали о методах защиты от мошеннических схем, розыгрышей и информационных операций, осуществляемых с применением технологий искусственного интеллекта.

В ведомстве привели пример популярного среди подростков розыгрыша: с помощью ИИ-инструментов создаются реалистичные изображения неопрятного мужчины, якобы находящегося в квартире, после чего подростки сообщают родителям, что впустили «бездомного». Реакция родителей фиксируется на видео и публикуется в социальных сетях.

Как отметили в МВД, хотя в подобных розыгрышах отсутствует злой умысел, они демонстрируют важную особенность современности – минимальные ресурсы, необходимые для создания дипфейков. Современные нейросети автоматически адаптируют выражения лица и голос под заданный текст, что позволяет создавать достоверно выглядящие видео. Именно эта реалистичность и создаёт серьёзные риски: под видом шуток могут распространяться фейковые новости, заявления от имени публичных лиц или мошеннические предложения инвестиций.

Для защиты от подобных угроз в МВД рекомендуют:

  • проверять источник происхождения видео – контент без понятного происхождения требует дополнительной проверки через официальные аккаунты, сайты или Telegram-каналы;
  • обращать внимание на визуальные артефакты: неровные контуры лица, «дрожащие» тени, неестественные движения губ и глаз, рассинхрон звука и видео;
  • анализировать контекст – если человек в ролике говорит несвойственные для себя вещи, следует проверить соответствие содержания реальной ситуации и публичной позиции говорящего;
  • использовать обратный поиск по изображению через Яндекс или Google Images для проверки оригинала кадров;
  • применять специализированные сервисы, анализирующие вероятность синтетического монтажа.
  • Дополнительно сообщается, что российские лаборатории кибербезопасности уже тестируют нейросети-детекторы дипфейков, включая технологии распознавания подмены лица в видеозвонках. При этом в ведомстве подчёркивают, что ни одна технология не обеспечивает стопроцентной гарантии обнаружения подделок – алгоритмы оценивают лишь вероятность, а окончательное решение остаётся за человеком.

Логотип versia.ru
Опубликовано:
Отредактировано: 26.10.2025 13:19
Комментарии 0
Наверх