Мошенники начали прибегать к использованию дипфейков в уже распространённых схемах взлома аккаунтов, сообщил зампред правления Сбербанка Станислав Кузнецов.
Такой информацией он поделился в интервью РИА Новости в кулуарах ВЭФ.
Дипфейк представляет собой технологию синтеза изображений с использованием искусственного интеллекта (ИИ) и нейросетей. Она позволяет изменять внешность и голос людей.
«По нашей оценке, дипфейки в основном используются в качестве дополнительного инструмента убеждения в уже известных сценариях мошенничества, например, при взломе аккаунта родственника или друга», – уточнил собеседник агентства.
По его словам, со взломанного аккаунта от имени его владельца осуществляется рассылка просьб оказать финансовую помощь по списку контактов. Для убеждения адресатов могут поделываться голосовые сообщения, имитирующие голос отправителя, поскольку во взломанном аккаунте, как правило, содержится достаточно данных, чтобы создать «аудиофейк».
По замечанию Кузнецова, для Сбербанка технически отсутствует разница, реализуют ли мошенники обманную схему при помощи дипфейка или нет, поскольку антимошенническая система банка позволяет выявлять переводы на счета аферистов и приостанавливать их независимо от того, применялся дипфейк для введения в заблуждение или же нет.
В середине прошлого месяца в Центробанке предупредили россиян о том, что мошенники начали чаще прибегать к использованию дипфейков для выманивания денег у потенциальных жертв. Как уточнил регулятор, для создания дипфейка аферисты зачастую прибегают к взлому чужого аккаунта в соцсетях или мессенджерах, крадут оттуда фотографии, видео и записи голоса владельца, чтобы потом создать при помощи нейросети реалистичное видеоизображение человека.