Машинное обучение и искусственный интеллект (ИИ) становятся основными технологиями для некоторых инструментов обнаружения угроз и реагирования на них. Возможность учиться на лету и автоматически адаптироваться к изменяющимся киберугрозам дает командам безопасности преимущество.
Однако некоторые злоумышленники также используют машинное обучение и искусственный интеллект для масштабирования своих кибератак, обхода средств контроля безопасности и поиска новых уязвимостей - и все это с беспрецедентной скоростью и с разрушительными результатами, пишет CSO. Вот девять наиболее распространенных способов использования этих технологий злоумышленниками.
1. Спам, спам, спам, спам
По словам Фернандо Монтенегро, аналитика Omdia, защитники используют машинное обучение для обнаружения спама на протяжении десятилетий. «Предотвращение спама - лучший начальный вариант использования машинного обучения», - говорит он.
Если используемый спам-фильтр указывает причины, по которым сообщение электронной почты не прошло, или генерирует какую-либо оценку, злоумышленник может использовать его для изменения своего поведения. Они будут использовать законный инструмент, чтобы сделать свои собственные атаки более успешными. «Если вы отправляете данные достаточно часто, вы можете реконструировать модель, а затем точно настроить свою атаку, чтобы обойти эту модель», - говорит Монтенегро.
Уязвимы не только спам-фильтры. По словам Монтенегро, любой поставщик систем безопасности, предоставляющий оценку или какой-либо другой результат, может стать объектом злоупотреблений. «Не у всех из них есть эта проблема, но если вы не будете осторожны, у них будет полезный вывод, который кто-то может использовать в злонамеренных целях».
2. Лучше фишинговые письма
Злоумышленники не просто используют инструменты безопасности с машинным обучением, чтобы проверить, могут ли их сообщения пройти через спам-фильтры. Они также используют машинное обучение для создания этих электронных писем, говорит Адам Мэлоун, партнер EY, Technology Consulting. «Они рекламируют продажу этих услуг на криминальных форумах. Они используют их для создания более эффективных фишинговых электронных писем. Для создания поддельных персонажей для проведения мошеннических кампаний».
Эти услуги специально рекламируются как использующие машинное обучение, и, вероятно, это не просто маркетинг. «Доказательство в пудинге (все проверяется на практике - прим. ред.), - говорит Мэлоун. - Они определенно лучше».
Машинное обучение позволяет злоумышленникам творчески настраивать фишинговые электронные письма, чтобы они не отображались в виде массовых рассылок и были оптимизированы для запуска взаимодействия и кликов. Они не останавливаются только на тексте электронного письма. ИИ можно использовать для создания реалистичных фотографий, профилей в социальных сетях и других материалов, чтобы общение выглядело как можно более законным.
3. Улучшенный подбор паролей
По словам Мэлоуна, преступники также используют машинное обучение, чтобы лучше угадывать пароли. «Мы видели доказательства этого, основанные на частоте и степени успеха механизмов подбора паролей», - говорит он. Преступники создают лучшие словари и взламывают украденные хэши.
По словам Мэлоуна, они также используют машинное обучение для идентификации элементов управления безопасностью, «чтобы они могли делать меньше попыток, угадывать более надежные пароли и повышать шансы на успешное получение доступа к системе».
4. Дипфейки
Самое пугающее использование искусственного интеллекта - это глубоко поддельные инструменты, которые могут генерировать видео или аудио, которые трудно отличить от реального человека. «Возможность имитировать чей-то голос или лицо очень полезна против людей, - говорит Монтенегро. - Если кто-то притворяется, что говорит как я, вы можете попасться на эту удочку».
На самом деле, за последние пару лет было обнародовано несколько громких дел, в которых фальсификация аудио стоила компаниям сотни тысяч или миллионы долларов. «Люди получали телефонные звонки от своего босса - это были фальшивые сообщения», - говорит Мурат Кантарджиоглу, профессор компьютерных наук Техасского университета.
Чаще всего мошенники используют ИИ для создания реалистичных фотографий, профилей пользователей и фишинговых электронных писем, чтобы их сообщения выглядели более правдоподобно. Это большой бизнес. По данным ФБР, с 2016 года компрометация деловой электронной почты привела к убыткам на сумму более 43 миллиардов долларов. Прошлой осенью в СМИ появились сообщения о том, что банк в Гонконге был обманут и в конечном счете перевел преступной группировке 35 миллионов долларов, потому что сотруднику банка позвонили якобы от директора компании, с которым он разговаривал раньше. Он узнал голос, поэтому позволил денежную транзакцию.
5. Нейтрализация готовых инструментов безопасности
Многие популярные инструменты безопасности, используемые сегодня, имеют встроенную форму искусственного интеллекта или машинного обучения. Например, антивирусные инструменты все чаще выходят за рамки базовых сигнатур подозрительного поведения. «Все, что доступно в Интернете, особенно с открытым исходным кодом, может быть использовано злоумышленниками», - говорит Кантарчиоглу.
Злоумышленники могут использовать эти инструменты не для защиты от атак, а для настройки своего вредоносного ПО до тех пор, пока оно не сможет избежать обнаружения. «У моделей ИИ много слепых зон, - говорит Кантарчиоглу. - Возможно, вы сможете изменить их, изменив характеристики вашей атаки, например, количество отправляемых пакетов или ресурсы, которые вы атакуете».
Злоумышленники используют не только инструменты безопасности на базе ИИ. ИИ является частью множества различных технологий. Стоит учитывать, например, что пользователи часто учатся обнаруживать фишинговые электронные письма, находя грамматические ошибки. Средства проверки грамматики на базе искусственного интеллекта, такие как Grammarly, могут помочь злоумышленникам улучшить качество письма.
6. Разведка (рекогносцировка)
Машинное обучение можно использовать для разведки, чтобы злоумышленники могли просматривать схемы трафика, средства защиты и потенциальные уязвимости своей цели. Это нелегко сделать, поэтому вряд ли это будет чем-то, чем будет заниматься средний киберпреступник. «Для использования ИИ нужны определенные навыки, - говорит Кантарчиоглу, - поэтому я считаю, что эти методы будут использовать продвинутые госчиновники».
Однако, если в какой-то момент технология будет коммерциализирована и будет предоставляться как услуга через криминальное подполье, она может стать более доступной. Это также может произойти, «если субъект национальной угрозы разработает определенный набор инструментов, который использует машинное обучение, и предоставит его преступному сообществу, - говорит Меллен, - но киберпреступникам все равно потребуется некоторое понимание того, что делает приложение машинного обучения и как его эффективно использовать, что создает барьер для входа».
7. Автономные агенты
Если предприятие замечает, что оно подвергается атаке, и отключает доступ в Интернет к уязвимым системам, то вредоносное ПО может не иметь возможности снова подключиться к своим серверам управления и контроля для получения инструкций. «Злоумышленники могут захотеть придумать интеллектуальную модель, которая будет работать, даже если они не могут напрямую контролировать ее, для большей устойчивости, - говорит Кантарчиоглу. - Но для обычных киберпреступлений я считаю, что это не было бы супер важно».
8. Отравление ИИ
Злоумышленник может обмануть модель машинного обучения, передав ей новую информацию. «Противник манипулирует обучающим набором данных», — говорит Алексей Рубцов, старший научный сотрудник Global Risk Institute. «Например, они намеренно искажают его, и машина учится неправильно».
Например, взломанная учетная запись пользователя может входить в систему каждый день в 2 часа ночи, чтобы выполнять безобидную работу, заставляя систему думать, что в работе в 2 часа ночи нет ничего подозрительного, и уменьшая обручи безопасности, через которые приходится перепрыгивать пользователю.
Это похоже на то, как чат-бота Microsoft Tay научили быть расистом в 2016 году. Тот же подход можно использовать, чтобы научить систему тому, что определенный тип вредоносного ПО безопасен или поведение определенных ботов совершенно нормально.
9. Фаззинг ИИ
Легальные разработчики программного обеспечения и тестеры на проникновение используют программное обеспечение для фаззинга (методика тестирования программного обеспечения, суть которой заключается в автоматизированном обнаружении ошибок реализации путем отправки заведомо неверных данных и анализе реакции программы на них).
Усовершенствованные версии этого программного обеспечения используют машинное обучение для создания входных данных более целенаправленным и организованным способом, отдавая приоритет, скажем, текстовым строкам, которые, скорее всего, вызовут проблемы. Это делает инструменты фаззинга более полезными для предприятий, но и более опасными в руках злоумышленников.
Все эти методы являются причиной того, что базовая гигиена кибербезопасности, такая как установка исправлений, антифишинговое обучение и микросегментация, по-прежнему имеет жизненно важное значение. «И это одна из причин, почему глубокоэшелонированная защита так важна, - говорит Меллен из Forrester. - Вам нужно поставить несколько блокпостов, а не только одну вещь, которую злоумышленники в конечном итоге используют против вас в своих интересах».
Недостаток опыта снижает частоту использования злоумышленниками машинного обучения
Инвестирование в машинное обучение требует большого опыта, которого сейчас не хватает. Кроме того, у злоумышленников обычно есть более простые и легкие способы взломать предприятия, поскольку многие уязвимости остаются неисправленными.
«Существует много низко висящих фруктов (легкой добычи - прим. ред.) и множество других способов заработать деньги, не обязательно используя машинное обучение и ИИ для создания атак, - считает Меллен. - По моему опыту, в подавляющем большинстве случаев они этим не пользуются». По мере того как предприятия улучшают свою защиту, а преступники и государства продолжают вкладывать средства в свои атаки, этот баланс может вскоре начать меняться.
Автор: Maria KorolovНажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.
Зарегистрироваться