Press "Enter" to skip to content

Deepfakes: Преступления будущего

Будущее уже здесь и стоит на вооружении у мошенников. Высокотехнологичные способы обмана, которые еще несколько лет назад казались фантастикой, сегодня успешно применяются авантюристами.

Что такое deepfake

Сам термин — игра слов, сочетающая deeplearning (глубокое обучение) и fake (подделка). По сути это качественная подделка видео с помощью нейросетей (искусственного интеллекта), которая позволяет выдавать себя за другого человека, или вкладывать в уста известных личностей слова, которых они не говорили.

Другой вариант использования подделок — создание порнографических материалов с наложенными лицами. Которые можно использовать для шантажа, мести или в качестве компромата.

Специалисты по безопасности бьют тревогу. Microsoft вместе с Facebook и даже министерство обороны США выделяют десятки миллионов долларов на разработку алгоритмов, способных распознавать такие фейки. А мошенники уже берут их на вооружение. 

Пример deepfake-преступления

WSJ пишет об эпизоде, который произошел с британской энергетической компанией, отправившей злоумышленникам более $240 000. Директор сделал перевод, потому что получил по скайпу подтверждение от начальства из головного офиса компании, находящегося в Германии. Мошенники полностью скопировали голос, акцент и интонации звонившего.

Деньги были переведены на расчетный счет в Мексике и растворились в недрах мировой финансовой системы. После второго звонка с просьбой отправить следующий срочный транш, директор заподозрил неладное и перезвонил боссу самостоятельно. В результате чего испытал новый опыт — ему удалось одновременно поговорить с двумя разными людьми с полностью идентичными голосами.

Трудно сказать, сколько еще похожих эпизодов уже произошло. А ведь это только подделка голоса, представьте уровень доверия к подобным видеосообщениям.

Изображение: https://www.wsj.com/

Современные проблемы требуют современных решений.

Алгоритмы самообучающихся сетей становятся все совершеннее, а компьютерные мощности продолжают расти. Время, когда создавать идеальные подделки смогут дети на домашних компьютерах, пользуясь бесплатными сервисами, это вопрос нескольких лет. Мы наблюдаем принципиально новую угрозу для безопасности, первые ростки которой уже проклюнулись.

И пока что не существует вменяемых способов защиты, кроме усиленной осмотрительности. Единственное, что сейчас можно противопоставить «глубоким фейкам» — это повышенная подозрительность и дополнительные проверки.

Но судя по остроте зарождающейся проблемы, решения будут сильно востребованы и скоро одно за другим появятся на горизонте. Даже привычное уже распознавание лиц китайские умельцы научились обходить с помощью проекций, на любое действие находится свое противодействие. Так что остается только приготовиться к новой эпохе, все сильнее напоминающей жанр киберпанка и быть в курсе того, какие вызовы она бросает.

Проектор, меняющий лицо для камер
Редакция

Триумф инфо 2019