То, что технологии не только служат человеку, но и используются мошенниками — факт. Достаточно вспомнить фейковые сайты, “продающие” товары, или вирусные программы, требующие деньги за разблокировку компьютера. А пранкеры? — Они разыгрывают, мастерски имитируя по телефону голоса людей.

Да, смешно смотреть на такой розыгрыш, но представьте себя на месте человека, которого выставили посмешищем на всю страну! Напомним, как в 2014 году президента Беларуси (!) голосом сына Виктора Януковича (на тот момент действующего президента Украины) разыграл пранкер.

Развитие техники и коммуникаций не стоит на месте и уже манипулируют не только голосом, но и видео.

Новая опасность: “не верь глазам своим”

Специалисты давно предупреждали об опасности дипфейков, но государственные институции отмахивались, считая, что их службы безопасности способны раскусить маргинальные шутки желтой прессы. Столь легкомысленная реакция, уверены, закончилась 24 июня 2022 года.

В этот день бургомистр Берлина Франциска Гиффай оказалась в центре скандала, возникшего из-за видеоконференции с мэром Киева (Украина) Виталием Кличко. Она полчаса по видеосвязи общалась с высокопоставленным украинским чиновником (подчеркнем, воюющей страны, т.е. вопросы, которые обсуждали политики с большой долей вероятности, могли быть конфиденциальными).

Следовательно, чиновница собственными глазами видела собеседника. И прервала беседу не потому, что в один момент видеоизображение Виталия Кличко рассыпалось на пиксели, а потому, что собеседник стал задавать столь абсурдные вопросы, что Франциска Гиффай поняла, что происходит нечто неординарное.

А неординарным было то, что у ее собеседника — Виталия Кличко — в тот день в указанное время не было никаких переговоров с бургомистром Берлина. Канцелярия Сената признала, что попалась на дипфейк, а вскоре выяснили, что это было делом рук российских “доброжелателей”.

Что такое “дипфейк”

Этот термин происходит от двух слов: deep learning — «глубокое обучение» из области работы искусственного интеллекта и fake — подделка. Суть этого явления — одновременное изменение голоса и маскировка видеозаписи с помощью другого лица.

Синтез проходит столь филигранно, что речь и мимика синхронизируются, а голос собеседника не вызывает никаких сомнений в аутентичности.

В марте этого года российские хакеры запустили в сеть обращение В. Зеленского к народу и армии с призывом сложить оружие. Низкое качество сразу выдало подделку, а представьте последствия, если бы над фейком потрудились!

Двумя годами ранее по сети ходило видео, в котором королева Елизавета танцевала на столе. Многие удивились, поскольку поведение царской особы не соответствовало тому, что обычно привыкли видеть люди.

Чтобы нагляднее рассказать о серьезности подобного обмана, приведем пример: вашей маме поступает голосовое сообщение в WhatsApp и вашим же голосом просят перевести денег. А если придет видеосообщение, тогда у мамы не останется сомнений! Впрочем, не будет и денег.

Как это делают

Создание дипфейка трудозатратная задача. Сейчас слишком дорого проворачивать такие шутки со среднестатистическими гражданами. Чтобы сделать дипфейк, необходима высококачественная видео- и аудиотехника, мощная видеокарта в компьютере и наличие в достаточном объеме материала с изображением и записью голоса “клиента”. А остальное сделает искусственный интеллект: наложит звук на видео, отредактирует мимику и… “здравствуй, бургомистр Берлина”!

Программа столь умна, что может вложить в уста условного Кличко любой текст при полной иллюзии полноценного диалога участников. Разумеется, не все идеально в таких программах. У фейкового собеседника часто пробивается монотонность, металлический звук, рывки в движении или речи, но это легко списывается на проблемы со связью.

Как не попасться на удочку

Повторимся, стать жертвой дипфейка обычному человеку пока маловероятно. Но технологии развиваются столь быстро, что, вероятно, в скором времени и этот метод займет свое место в арсенале мошенников.

Чтобы отличить фальшивое изображение от настоящего, присмотритесь. Кстати, этот нюанс лежит в психологии видеообмана: человек видит знакомое лицо и интуитивно верит своим глазам. И не со связью проблема. На самом деле размытая мимика, нечеткие глаза, смазанный переход со лба на волосы, “странная” посадка головы и отсутствие родинок или шрамов сразу выдают компьютерную графику.

Сейчас в соцсетях апробируют специальные фильтры, способные распознать дипфейк, но пока их эффективность невысока. Поэтому призываем к бдительности, и помните, глазам верить можно не всегда.

Werbung