В последние годы Интернет буквально наводнили фейковые новости. Они бывают достаточно безобидными, например «Пугачёва похудела на 50 килограммов». Главная цель создателей такого контента – собрать побольше кликов, превратив их в реальные деньги.
Куда опаснее фальшивые внешнеполитические новости, способные ни много ни мало развязать войну. В связи с этим власти многих стран озабочены нынче борьбой с фейками. На официальной странице МИД РФ есть специальный раздел, посвящённый выдуманным новостям о России. Однако технологии не стоят на месте, и вот уже открыта новая страница в их истории: теперь качественно подделывать можно не только фото, но и видеоизображение.
Настоящей сенсацией стало видео немецкого художника Марио Клингемана. На нём французская актриса и певица Франсуаза Харди (на фото) отвечает на вопросы голосом советницы президента США Дональда Трампа Келлиэнн Конвей. Таким образом воспроизводится звук из интервью, которое чиновница давала каналу NBC. Объект выбран не случайно – Конвей получила известность после использования парадоксального термина «альтернативные факты». Видеоролик представляет собой не что иное, как «альтернативный факт», и получил название Alternative Face v1.1. Сейчас Харди 73 года. 50 лет назад юная актриса и понятия не имела, кто такой Трамп.
За основу Клингеман взял видео Харди 50-летней давности. Кроме того, компьютер обработал множество других записей и фотографий актрисы.
Альтернативные факты
Пока изображение выглядит не слишком убедительно: оно шаткое и распадается на пиксели. Однако Клингеман утверждает, что он и не занимался редактированием программного обеспечения – он всего лишь создал клип на настольном компьютере, используя генеративные нейросети (GAN). Это заняло у него всего несколько дней. Журнал The Economist убеждён: пройдёт всего пара лет, и технологии разовьются настолько, что человеческий глаз не сможет отличить фейковое видео от настоящего.
Эксперты считают, что распространение фальшивых новостей – это лишь первая волна фейкового контента, который в ближайшие годы захлестнёт медиапространство. Генеративные нейросети уже позволяют создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Принцип работы GAN-систем прост. Сначала нейросети изучают статистические характеристики аудиозаписи, а затем воспроизводят их в другом контексте. При этом они улавливают изменения в речи с точностью до миллисекунды. Таким образом, окажется достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление того же Трампа или любого другого политика.
Вспомним фильм «Бегущий человек», действие которого, кстати, происходит в 2017 году. Там с помощью компьютерной программы героя Арнольда Шварценеггера заставили драться с другим бойцом, чего в действительности не было. То, что казалось фантастикой во времена создания фильма, рискует стать реальностью. Как же это работает?
Как не попасться на удочку фальшивого «Русского лото»?
Машинное искусство
Журналист Андрей Бродецкий на своём канале в Telegram рассказывает о том, что большую роль в распространении нейросетей сыграло популярное приложение Prisma, позволяющее переносить стиль картин на фотографии. «Команда американских исследователей разработала интересную схему, позволяющую создавать картины в новых стилях. Вот как она работает. Одна нейросеть – тупой генератор, который ничего не знает об искусстве. Он начинает генерировать картины случайным образом, то есть буквально рисовать всякую фигню. Вторая нейросеть (дискриминатор) – умная. Ей показали 82 тыс. картин в разных стилях. Дискриминатор умеет не только отличать искусство от беспорядочной мазни, но и определять стиль картины. Реализм, импрессионизм, кубизм, экспрессионизм – всего 25 стилей», – объясняет Бродецкий.
Дальше происходит следующее: первая нейросеть постоянно пытается обмануть вторую. Она создаёт случайную мазню, после чего отправляет её в дискриминатор, который определяет, «искусство» это или нет. Если ответ оказывается отрицательным, нейросеть перенастраивается и снова пытается обмануть дискриминатор. Если же дискриминатор видит в сгенерированной картинке «искусство», он пытается определить стиль, в котором написана картина. Если этот стиль оказывается знаком дискриминатору, то есть похож на нечто, что он уже видел и знает, то система возвращает генератору сигнал и просит показать что-то новое. То есть нейросеть должна не просто воспроизводить известные художественные стили, а создавать новые.
Но самое интересное, что полученные таким способом «шедевры» показали людям и попросили оценить наряду с настоящим современным искусством. Порой машинные картины получали более высокие оценки, чем созданные кистью художника. Как пишет Бродецкий, для полноты эксперимента авторам исследования стоило бы продать одно из таких полотен на ярмарке за большие деньги, а потом раскрыть его секрет.
Доверие не будет прежним
Вера в письменную информацию давно подорвана. Раньше средства массовой информации любили создавать фальшивые новости 1 апреля, а потом смеяться над коллегами по цеху, которые велись на фейк и тиражировали его. Похоже, теперь время невинных шуток прошло. Этому в большой степени способствовало развитие Интернета. Ведь в нём любой желающий может создать агентство фальшивых новостей и развлекаться как душе угодно. По данным МИД РФ, фейками грешат и солидные издания. В специальном разделе на сайте ведомства упоминаются и The Washington Post, и «Евроньюс», и The Times. Сотрудники МИДа обратили внимание на появление в чешском сегменте Facebook* целой фальшивой страницы российского посольства. «Расцениваем данную информацию подачи дезинформации как изощрённый метод гибридного воздействия на чешское общественное сознание, о котором так любят в последнее время говорить на Западе», – говорится на сайте внешнеполитического ведомства.
Ранее бумага, а теперь и Интернет всё стерпит. Однако звуковые и видеоизображения до сих пор сохраняли иллюзию надёжности. Как теперь выясняется, сымитировать голос тоже не проблема. В апреле канадский стартап Lyrebird опубликовал соответствующий набор алгоритмов. Системе достаточно прослушать звуковой файл длиной не больше 1 минуты, чтобы скопировать голос. Причём алгоритм делает это не абы как, а ещё и добавляет эмоциональную окраску.
К чему всё это приведёт? В первую очередь к тому, что доверие людей к новостям уже никогда не будет прежним.
КСТАТИ
На каждую гайку найдётся болт
Уже появилась программа Face2Face, которая позволяет переносить движения, мимику и фразы любого чело века на видео-ролик с другим человеком. Разработчики показали, как можно с помощью программного обеспечения удалённо поменять на видео выражение лица Дональда Трампа. Похоже, программисты выбрали его любимым персонажем для опытов.
Потому можно только догадываться, какую сумятицу внесёт появление фейковых видео в существующий миропорядок. Грядёт новая схватка между правдой и ложью. Скорее всего ответом на фейки нового образца станут технологии «антифейк», которые позволят распознать фальшивку.
Впрочем, учёные примерно так и успокаивают: на каждую хитрую гайку найдётся свой болт с резьбой. По их мнению, со временем в арсенале каждого интернет-пользователя окажется устройство для верификации контента. Это может быть программа для изучения местности, которая исследует задний план фото или видео, или что-либо другое. Защититься от нашествия фейков поможет и шифрование. Но очевидно одно: расслабляться нельзя. И доверие людей к новостям уже никогда не будет прежним.
- *
- 21.03.2022 г. американская транснациональная холдинговая компания Meta признана экстремистской и запрещена в РФ. Meta Platforms Inc. является материнской компанией социальных сетей Facebook и Instagram. Facebook и Instagram также признаны экстремистскими организациями, их деятельность на территории РФ запрещена.