Group IB

Deepfake-технологии: мошенничество, бизнес или просто шутка?

Deepfake-технологии: мошенничество, бизнес или просто шутка?
Deepfake-технологии: мошенничество, бизнес или просто шутка?
03.10.2022

Долгое время термин «Deepfake» воспринимался как приложение, где можно подставлять лица в видео. Способствовал этому тот факт, что технология получила наибольшую огласку сначала на имиджбордах, таких как Reddit, а затем перешла в социальные сети, в том числе TikTok, где использовалась скорее в качестве шутки – возможности сделать смешное видео.

Однако, некоторые пользователи усмотрели в технологии возможности для нецелевого использования. Создание компрометирующих материалов, фейков, мошенничество на основе использования лица и голоса реальных людей. Этому способствовал ряд факторов:

  • актуализация средств видеосвязи в ходе пандемии;

  • интеграция рядом финансовых организаций аутентификации по лицу или голосу;

  • повышение качества дипфейков, созданных ИИ.

В этой статье мы обсудили с экспертами перспективы deepfake-технологий, особенности их легального применения и возможности для мошенничества, связанные с подделкой лица и голоса.

Deepfake как шутка

Дипфейк-технологии стали широко известны, в первую очередь, как возможность создать видео для взрослых с участием любимой актрисы или актера. Бум дипфейков такого рода вынудил многие профильные площадки и социальные сети, запретить их размещение.

Штат Калифорния пошел еще дальше и принял отдельный законопроект, позволяющий подать в суд на любого изготовителя «горячих» дипфейков. Такое поведение легко объяснимо, ведь даже совсем простая программа Face Swap позволяет создать достаточно качественную подделку, которая может ввести в заблуждение неосведомленного о технологии пользователя.

Александр Горшков
Директор по развитию ООО Айрис Девайсез

Когда говорят о deepfake – всегда надо конкретизировать, что под этим подразумевается. Подделка голоса, фотографии или видео. Голосовая подделка является самой простой. Она часто используется мошенниками как наиболее доступный способ во время телефонного звонка. Но сама по себе подделка голоса – малоэффективна. Ее используют в основном с методами социальной инженерии. Генерация голоса используется как для обмана частных лиц, так и сотрудников крупных компаний. В любом случае это не простое действие и используется для крупного мошенничества. Что касается фото и видео подделки – то эти способы мошенничества достаточно сложны, высокобюджетны, а технологии их создания и использования еще отрабатываются.

Как у любой медали или монеты есть две стороны, то и у дипфейк технологии есть возможность как положительного, так и негативного использования. Обязательно найдутся люди или компании, которые будут использовать эти технологии для мошенничества. Будут разрабатываться различные технологические меры для выявления цифровых подделок, но не во всех случаях получится с ними бороться только автоматизированными средствами. Для предотвращения деструктивного использования дипфейков в ряде стран принимаются специальные нормативные акты, в том числе предусматривается административная и уголовная ответственность. В нашей стране создание и использование дипфейков разрешено в развлекательных целях.

Дипфейки не миновали и самый большой видеохостинг – YouTube. Примерно 90% из них также используют лица разных знаменитостей. Например, пользователям особенно полюбились фейки с использованием лица Николаса Кейджа, который стал настоящей звездой мемов.

В социальных сетях дипфейк-технологии часто используются для придания лицу пользователя разных черт (с помощью т.н. масок), но не ставят целью сделать его похожим на другого человека. Они сугубо развлекательные, пародийные и, как правило, неестественные.

Дипфейк как бизнес

Видео-фейки знаменитостей могут быть использованы не только для создания юмористического контента, но и в бизнесе. В первую очередь это киноиндустрия и реклама.

В российской медиасреде можно выделить рекламный проект Мегафона, в котором «принял участие» дипфейк Брюса Уилиса. Проект реализован российской компанией Deepcake.

При этом, сам Брюс Уиллис одобрил работу российских специалистов и оценил высокое качество работы над своим цифровым двойником. За использование своего образа актер, разумеется, получил гонорар.

Роман Корес
Founder Horum.co

Есть такая практика, что события, о которых не написали в интернете – можно считать и не произошли, потому что о них никто не узнает. Deepfake в этом контексте – это возможность создать в интернете видимость события, которого никогда не было. Это дает широкие возможности для манипуляции аудиторией, особенно в социально-политических вопросах. Поскольку, как правило, видео с deepfake набирает гораздо больше просмотров, чем видео с его разоблачением.

Но и для бизнеса это явление достаточно опасно, поскольку позволяет злоумышленнику выдать себя за другого человека. Успех заметно увеличивается в тех случаях, когда топ-менеджмент компании состоит из возрастных людей, у которых и зрение не всегда идеальное, и знания о передовых IT-технологиях достаточно общие.

Однако, современные инструменты защиты позволяют отличить работу ИИ от реального человеческого лица по целому ряду маркеров. Резонно предположить, что интеграция этих средств защиты будет идти планомерно актуализации проблемы deepfake в обществе и бизнес-среде.

В категорию deepfake-технологий можно, отчасти, отнести голограммы известных личностей. Как правило, они используются для проведения концертов уже умерших звезд музыкальной индустрии. Например, подобные мероприятия проводились с использованием голограмм Майкла Джексона, 2Pac и Виктора Цоя. В таком случае, финансовое награждение за использование образа получает либо музыкальная студия, либо родственники артиста.

Дипфейк как мошенничество

Программы для изменения лиц в видео могут использоваться не только для копирования внешности мировых звезд, но и топ-менеджмента любой из компаний. Главное условие – наличие достаточных исходных данных для обучения ИИ, то есть видео и аудиоматериалов.

Александр Герасимов
CISO Awillix

Использование deepfake действительно набирает обороты у мошенников. Видео с deepfake использовались даже в политических целях, но в основном это все же мошенничество с целью кражи денег. Так, например, один из директоров британской энергетической компании был обманут на 243 тыс. долларов из-за deepfake главы его компании, который запросил срочный перевод денег.

Deepfake также используются для прохождения KYC (Know Your Customer) – процедура верификации личности, злоумышленники подменяют лица на чужие, чтобы пройти регистрацию под другой личностью, например, в финансовых сервисах.

Использование дипфейков, если оставить в стороне техническую часть и для создания качественной подделки ресурса, очень сильно привязано к социальной инженерии. Нужно не только получить контактные данные «цели», но и учесть речевые особенности «оригинала», не вызвать подозрений внезапным требованием перевести некоторую сумму денег на подозрительный счет.

Андрей Тимошенко
Директор по стратегическому развитию бизнеса компании Innostage

C помощью технологии deepfake создаются изображения и видео высокого качества, практически не отличимые от оригинала. Они позволяют внедрять нужную информацию определенной группе людей, принимающих решения в организации или государстве, и манипулировать ими. Другой вариант использования deepfake – распространение fake news и манипуляция сознанием широких масс.

Таким образом, перед нами – яркий пример атак, которые производятся при помощи социальной инженерии с применением ИИ. Свою роль в них также играет человеческий фактор. Данные атаки для организаций – это высочайшие риски, ведь в конечном итоге они могут привести к разрушительному воздействию.

Внедрение удаленной идентификаций способствует росту киберпреступлений в разных сферах, в первую очередь в финансовой. Так, с помощью deepfake можно подстроить голос и изображение нужного человека, взломать систему идентификации и получить контроль над банковским счетом.

Отдельно стоит выделить дипфейки, которые направлены на прохождение идентификации человека в системе. Использование овала лица в качестве биометрических данных без механизмов защиты от подделки чревато, о чем говорит не один пример взлома прохождения таких систем.

На данный момент наилучший способ защиты – это отказаться от такой системы распознавания в пользу «классических» решений. Системы защиты для того же пароля или отпечатка пальца куда более совершенны, лучше изучены и стоят заметно дешевле.

Результаты

Deepfake-технологии уже пришли в нашу жизнь и неизбежно будут развиваться, потому что могут служить легальным источником достаточно высокого дохода сразу в нескольких сферах.

Развитие технологий неизбежно приведет к тому, что их ресурсоемкость сократится: они станут дешевле и проще. Вместе с этим процессом будет расти и актуальность использования дипфейков как инструмента мошенничества.

Алексей Дрозд
Начальник отдела информационной безопасности «СерчИнформ»

В первую очередь, должен снизиться порог входа для создания качественных дипфейков. Сейчас на их разработку нужны технологии, время, мощности и знания. Во-вторых, для успеха мошенникам нужны подходящие условия. Например, если в банках начнут выдавать кредиты только через видеоподтверждение намерения, то количество дипфейков увеличится, они могут быть вполне успешными.

Так, в Китае двое мошенников несколько лет обманывали систему распознавания лиц налоговой службы с помощью дипфейков и украли 76 млн долларов. Их цель заключалась в создании компаний-пустышек. Для ее достижения злоумышленники покупали фотографии людей и их личные данные на «черном онлайн-рынке», а в дипфейк-приложениях делали из картинок видео.

Следующий шаг преступников – покупка перепрошитых смартфонов, которые умели имитировать работу фронтальной камеры. Она не включалась, а пересылала налоговой подготовленное deepfake-видео. Система распознавания лиц воспринимала людей как реальных, из-за чего мошенники смогли использовать свою схему годами. Всего злоумышленниками было украдено 76 млн долларов.

Но есть и обратная сторона этого процесса: чем популярнее будут deepfake-технологии, тем осведомленнее о них будет общество. Обманывать людей, которые предполагают вероятность того, что с ними может беседовать мошенник, гораздо сложнее.

Вместе с тем, неизбежно будут развиваться и защитные инструменты. Программа может определять фейк как на основе отдельных метрик (поведение овала лица, частота морганий), так и по их совокупности.

Если подводить итог, то можно сказать, что deepfake-мошенничество станет обыденностью, и будет представлять ту же опасность, что и фишинговая рассылка. То есть немалую, но вполне ожидаемую угрозу.


Читайте также


Комментарии 0