erid: 2SDnje9hinm erid: 2SDnje9hinm

Как меняются мошеннические схемы: целенаправленные атаки, нейросети и автоматизация

erid: 2SDnje7M2nD
Как меняются мошеннические схемы: целенаправленные атаки, нейросети и автоматизация
Как меняются мошеннические схемы: целенаправленные атаки, нейросети и автоматизация
19.04.2024

Новые технологии постепенно проникают во всех сферы жизни человека. И к сожалению, мошенники тоже не прочь вывести свои преступления на новый уровень, используя искусственный интеллект. В статье рассказываем, какие новые схемы мошеннических звонков и «разводов» появились и как от них защититься.

Если у мошенников есть ваши данные и боты

Телефонными звонками мошенников вряд ли кого-то можно удивить. Но раньше злоумышленники били наугад — обзванивали абонентов по большой базе и всем преподносили одну и ту же историю. Например: «Мама, я попал в аварию, срочно нужны деньги или меня посадят в тюрьму». Фактически преступники били наугад, и конверсия была сравнительно низкой.

Сейчас ситуация иная. Благодаря огромному количеству данных из утечек и других публичных источников, за копейки можно приобрести базу абонентов с персональными данными. По этим сведения преступники формируют примерный портрет жертвы — семья, в каких банках есть счета, какие сервисы использует, где работает. Все это создает почву для более целенаправленных атак. Например, можно манипулировать здоровьем престарелых родителей, детей, придумывать варианты с эвакуацией автомобиля и т. д. Так происходит персонализация преступления, а шансы выманить деньги увеличиваются.

Но даже зная, кому звонить и что говорить, чтобы наверняка зацепить жертву, мошенникам приходилось тратить много времени на каждый звонок. Поэтому в качестве помощника они подключили еще одну технологию — автоматизацию. По сути, киберпреступники «подсмотрели» эту инновацию в легальных колл-центрах, где холодные звонки по клиентской базе осуществляются по скрипту с помощью бота.

В преступных группировках, занимающихся телефонным мошенничеством, первичный обзвон совершают боты. Это увеличивает производительность, а еще вызывает больше доверия у жертв. Если из трубки раздается роботизированный голос с фразой: «Здравствуйте. С вами разговаривает голосовой помощник банка N…», многие начинают общаться. Хотя скрипт остался такой же, как и у набивших оскомину «сотрудников службы безопасности банка» — банковский счет в опасности, сообщите номер карты, придет код и т. д.

А если к работе подключить нейросети

Мошенники первыми пробуют все технологические новинки и достижения искусственного интеллекта не исключение. Например, дипфейки голоса — искусственно созданные звуковые записи, которые могут звучать, как настоящие голоса людей. Вот как мошенники используют эту технологию в своих коварных планах:

  • мошеннические звонки — используя аудиодипфейки, мошенники звонят своим жертвам, представляясь родственниками, коллегами или другими доверенными лицами. Они могут просить о финансовой помощи, передавать ложные срочные сообщения или даже вымогать информацию. Например, известны случаи мошенничества, когда родители получали аудиозапись с голосом ребенка, который рассказывал, что его похитили и необходимо внести выкуп.
  • фальшивые записи — используются в качестве доказательства в различных мошеннических схемах. Например, подделка разговоров, записанных угроз или других событий, которые мошенники могут использовать для шантажа или вымогательства. Также фальшивые записи могут использоваться как доказательства в судебных спорах, бракоразводных процессах, деловых сделках. Это может привести к несправедливому решению суда или финансовым потерям для жертв.

На слух отличить реальный голос человека от сгенерированного достаточно сложно. А если и закрадываются подозрения, то их списывают на помехи связи.

Ольга Карпова

Руководитель отдела по информационной безопасности компании RooX

На сегодняшний день существуют несколько категорий дипфейков, например, видео- и фотоконтент, а также аудио. Видео и фотодипфейк достаточно просто распознать даже пользователю без продвинутых технических навыков. Так, если сотруднику в мессенджер пришло видеосообщение от якобы руководителя, такой дипфейк можно отличить по мелким деталям. Например, по свету, который падает с одной стороны, а блик на лице при этом отображается с другой, или по неестественной мимике на видео. Также на рынке есть достаточно много продуктов на базе ИИ, которые позволяют распознать малейшие неточности на фото или видео и с вероятностью до 90% определить, дипфейк перед нами или реальный человек. Среди таких продуктов — Forensically, Image Edited, Ghiro и другие. Среди российских вендоров такими разработками занимается, в частности, Сбер.

В свою очередь, с распознаванием аудиодипфейков есть ряд сложностей. Если мошенническое сообщение строится только на аудиоконтенте, человеку на слух достаточно тяжело распознать незначительные изменения в голосе. Поэтому аудиодипфейки — это сегодня одна из нарастающих угроз кибербезопасности. В то же время уже создаются и тестируются первые методики распознавания аудиодипфейков. Например, американская компания Resemble AI, которая ранее запустила платформу синтезирования аудиодипфейков, теперь разработала инструмент их распознавания. Система обнаруживает дипфейки, получая высококачественные представления образцов голоса, а далее прогнозирует, является он реальный или искусственным на базе 265 метрик.

Также киберпреступники с помощью аудиодипфейка выдают себя за руководителей компаний и учреждений, требуют связаться якобы с сотрудником службы безопасности, который далее убеждает жертву перевести деньги на «безопасный счет».

Это не единая схема мошенничества, есть и другие вариации. Например, преступники создают аудиосообщения с приятным женским голосом и отправляют их мужчинам, желающим познакомиться в соцсетях с красивой девушкой. Так мошенники в разы повышают шансы на успех при онлайн-знакомствах и выманивании денег.

А еще телефонные аферисты, используют сгенерированные голоса, чтобы разводить родственников. Например, ребенок получает сообщение от «мамы», что сейчас придет ее подруга, которой нужно передать деньги, лежащие в семейном тайничке. Также поступают с пенсионерами — от имени их детей или других родственников просят перевести или передать деньги, оплатит услуги и т. д.

Как защититься

Если мошенники используют технологические новинки, то и простым гражданам не взять это на вооружение. Например, чтобы бороться с аудиодипфейками, использовать сервисы, выявляющие подделки. Но не все так просто.

Марина Пробетс

Интернет-аналитик компании «Газинформсервис»

Технологии, способные определять аудио или видеодипфейк, еще находятся в стадии разработки и тестирования, но они уже существуют. Они работают на основе использования уникальной частоты электрической сети, известной как ENF (Electrical Network Frequency), которая встраивается в любую аудио- или видеозапись как «неподдельный» сигнал. Это позволяет отличать настоящие видео- и аудиосигналы от поддельных в реальном времени, к примеру, во время видеоконференций.

К сожалению, даже в современном мире с развитыми технологиями и повсеместной цифровизацией «спасение утопающих» остается делом самих «утопающих». Чтобы не стать жертвой киберпреступников, стоит проявлять внимательность и здоровую подозрительность:

  1. Использовать спам-защиту от нежелательных звонков. Это позволит сразу определить, кто звонит. Для предотвращения мошенничества рекомендуется избегать отвечать на звонки с неизвестных номеров. Если в разговоре появляются подозрения, полезно задать собеседнику случайный вопрос, чтобы убедиться, что вы общаетесь с человеком, а не с ботом.
  2. Помнить, что официальные представители банков, веб-сайтов или государственных учреждений никогда не просят осуществить денежный перевод или раскрыть конфиденциальную информацию через обычные сообщения или телефонные звонки. В случае получения подозрительного запроса рекомендуется обратиться к соответствующей организации непосредственно и уточнить все детали.
  3. Если «начальник» звонит через мессенджер, стоит убедиться, что номер есть у вас в контактах. А еще не будет лишним попробовать связаться с ним другим способом — через корпоративную «болталку» или по прямому телефону.

Хорошей защитой от мошеннических звонков с использованием нейросетей, могло бы стать государственное регулирование этой сферы и ИИ-продуктов. 

Виталий Фомин

Руководитель группы аналитиков по информационной безопасности Лиги Цифровой Экономики

Считаю наиболее зрелой инициативой разработку подобных сервисов, способных определять аудио или видеодипфейки, на уровне государства. Подобное ПО можно разрабатывать и коммерческим предприятиям для получения прибыли, но с точки зрения государства это весьма важно, поскольку дипфейки применяются не только при мошенничестве против граждан, но и на уровне государственных корпораций, обсуждения политических вопросов.

В 2022 году НЦКР ИТМО совместно с ФГУП «Главный радиочастотный центр» начали разрабатывать сервис, позволяющий выявлять скрытую агрессию, ложь при комментировании ситуаций и уровень согласованности информации между вербаликой и невербаликой. Большинство подобных сервисов работают на английском языке ввиду применения для анализа иностранных библиотек, что неправильно именно для нас. Мошенники в России не будут общаться с пользователями на иностранном языке, следовательно, необходимо создавать собственные библиотеки для нейросетей, которые будут эффективно отслеживать подобные мошеннические схемы.

Существуют проекты от иностранных компаний, основывающиеся на частоте электрической сети, которая не поддается подделке в зависимости от реальных условий трансляции видео. На улице и в помещении в различных регионах она существенно отличается и успешно встраивается в мультимедийную запись. Если запись будет поддельной, алгоритм мгновенно это распознает во время видеоконференции и выдаст уведомление. Скорость определения будет зависеть только от количества подключенных к трансляции участников.

В мировой практике еще нет подобных примеров. Но США, страны Евросоюза и другие государства прорабатывают инициативы, направленные на регулирование нейросетей и производимых ими продуктов. Или вводят какие-то правила на уровне отдельных ведомств, организаций. Например, в Китае с января 2023 года действуют правила CAC, запрещающие создавать дипфейки без разрешения самого субъекта или во вред национальным интересам. Кроме того, все дипфейки должны соответствующим образом маркироваться.

В России нейросети и их продукты пока не имеют правового статуса. Но есть «Кодекс этики ИИ», подписанный 247 российскими компаниями. К сожалению, мошенники этот кодекс не читали и придерживаться правил не собираются. 

erid: 2SDnjc4Nt7b erid: 2SDnjc4Nt7b

Комментарии 0