Сгенерированные ИИ фейковые видео катастроф заполонили интернет
Эксперты по цифровой безопасности, специализирующиеся на технологиях по распознаванию дипфейков, отмечают, что распространению фейков способствуют два ключевых фактора: доступность генеративного ИИ и алгоритмы соцсетей, которые активно продвигают эмоциональный контент. Опросы показывают, что от 62% до 80% россиян не могут отличить созданные ИИ изображения от реальных фотографий.
После недавнего землетрясения на Камчатке в мессенджерах массово распространялась ложная информация о повреждении атомной подлодки Тихоокеанского флота после землетрясения на Камчатке, которую оперативно опровергли. Также в сети появлялись видео со сбитым беспилотником над Свердловской областью и сообщение о возможной атаке на предприятие в Ставрополе. Оба инфоповода оказались фейковыми. На прошлой неделе в сети завирусилось видео о с якобы обрушившимся гигантским аквариумом в Калифорнии, потоком воды из которого смыло нескольких человек. Оно собрало миллионы просмотров, хотя ничего подобного не происходило.
Современные ИИ-сервисы вроде Runway Gen 4, Google Veo 3 и Seedance 1.0 позволяют создавать реалистичные видео в Full HD-качестве по текстовому описанию за считанные минуты. Количество доступных платформ для генерации такого контента за год выросло с сотен до нескольких тысяч.
Специалисты рекомендуют проверять источник информации, искать подтверждения в официальных заявлениях, проверять даты и геометки и обращать внимание на детали – ИИ часто ошибается в технических нюансах. Основные цели создателей таких видео – привлечение внимания и повышение охватов в соцсетях. Кроме того, ролики о фейковых катастрофах могут использовать злоумышленники в целях завладеть данными и деньгами пользователей.
Просмотров: 528