
Консультант по ИБ RTM Group
Фишинговых атак с применением искусственного интеллекта становится все больше. Они недорогие в подготовке и реализации, вариантов множество, попадание в цель почти гарантировано. Такие атаки не ограничиваются географическим положением и могут быстро масштабироваться, приводя компании к серьезным финансовым потерям. Это связано с тем, что используемые методы в основном нацелены на эксплуатацию человека – самого слабого звена любой системы защиты.
Специально для Cyber Media Андрей Меркулов, консультант по ИБ RTM Group, расскажет об актуальных механизмах атак и современных методах защиты в эпоху развитого ИИ.
ИИ-фишинг — это технология на базе искусственного интеллекта, которую используют злоумышленники для проведения массовых атак. AI позволяет проводить анализ огромных массивов данных. Почти любому злоумышленнику вряд ли будет интересно подолгу изучать потенциальных жертв, и вот как раз тут им на помощь приходят большие языковые модели (LLM), которые могут делать нужные выводы практически бесплатно.
Первыми, кто провел исследование о том, насколько успешно предварительно обученные модели могут распознавать личные данные в тексте, были Робин Стааб, Марк Веро, Мислав Балунович и Мартин Вечев. Они случайным образом выбрали 520 публичных профилей на Reddit’е, которые содержали 5814 комментария. Как итог, исследователи обнаружили, что модель ИИ смогла определить место рождения автора с вероятностью в 92%, а пол с вероятностью в 97%. Процесс фишинга с помощью ИИ в среднем осуществляется в 240 раз быстрее и, что еще важнее, в сотни раз дешевле, чем если бы этим занимался человек.
Однако современные фишинговые атаки с применением ИИ не ограничиваются только отправкой электронных писем. Они организуют многоканальные атаки, которые задействуют:
Главным образом они нацелены на организации, реже – на крупных общественных деятелей и состоятельных людей. Противостоять такому мощному напору посредством «классических» мер безопасности почти нереально. Когда злоумышленник легко переключается между электронной почтой или голосовой связью, постоянно выдавая себя за другое лицо, даже профессионалы могут быть введены в заблуждение.
В недавнем исследовании Гарвардской школы имени Кеннеди в рамках эксперимента были проведены фишинговые атаки с использованием искусственного интеллекта. Они достигли цели в 54% случаев, в то время как успех «традиционного» фишинга оказался на уровне 12%.
В России всего за восемь месяцев 2025 года объём «обращений» к потенциальным жертвам с ИИ увеличился в полтора раза. Специалисты ожидают, что к 2027 году Gen AI будет использоваться уже в 17% кибератак.
Нападения посредством искусственного интеллекта обходятся злоумышленникам дешевле, поскольку требуют меньше времени и ресурсов для подготовки. Исследование Harvard Business Review сообщает, что «весь процесс фишинга можно автоматизировать с помощью LLM. Это снижает его стоимость более чем на 95% при сохранении равной или даже большей успешности». Решения на основе ИИ теперь доступны практически любому человеку, что упрощает развертывание успешной атаки.
Если нападающие достигают цели, это зачастую является только началом еще более масштабного инцидента – утечки данных. Все это оборачивается огромными финансовыми потерями для компаний. В мире показатель среднего ущерба от утечки данных для организации в 2024 году достиг более четырех миллионов долларов. В России – это примерно 11,5 млн руб.
Анализ географического распределения показывает, что наша страна сегодня занимает лидирующую позицию по объему утекших данных – 200,5 миллионов строк личной информации пользователей было размещено в даркнете. За ней идут США, Индия, Китай и Индонезия.
Все это показывает нам, насколько масштабным и экономически выгодным для злоумышленников является фишинг в наши дни.
Каждый день мы выкладываем резюме на сайтах по поиску работы, пишем посты, делимся фотографиями или историями в соцсетях. Благодаря этому нейросети и злоумышленники располагают огромной информацией о нас. Фишинговые сообщения могут содержать знакомые элементы: наши упоминания покупок, недавние контакты с людьми или местоположение. Такой уровень персонализации повышает вероятность успеха.
Поговорим о новом инструменте - WormGPT. Это решение уровня Gen AI LLM (Мультимодальный ИИ), подобное ChatGPT, MS Copilot и альтернативам с открытым исходным кодом, но созданное во вредоносных целях. Будучи широкодоступным и не имея каких-либо этических ограничений, характерных для других легальных LLM, он используется (и даже рекламируется) для подготовки очень убедительных фишинговых писем и помогает злоумышленникам в атаках на коммерческую электронную почту.
Рассмотрим сценарий атаки с применением WormGPT:
Защититься от атак этого рода непросто. Однако, есть ряд мер, реализуя которые, организации могут свести инциденты к минимуму.
Вот основные рекомендации для компаний:
Логичным ответом на угрозу является использование тех же технологий для защиты, что и для атаки. Статистика показывает, что это оправдано и высокоэффективно. Анализ данных внедрения защитных систем позволяет выделить несколько ключевых преимуществ ИИ в кибербезопасности:
ИИ не просто добавляет еще один уровень защиты, а коренным образом меняет подход к безопасности, делая его более адаптивным. В отличие от традиционных сигнатурных методов, ИИ-системы обучаются на поведенческих паттернах и способны выявлять аномалии в реальном времени, предсказывая атаки до их полномасштабной реализации. Например, защитные решение на базе ИИ с применением алгоритма MLP (многослойный перцептрон), успешно справляются с выявлением фишинговых URL в 98,2% случаев, что значительно превосходит традиционные методы фильтрации, точность которых не превышает 85%.
Фишинг с использованием ИИ превратился в масштабную и экономически выгодную для злоумышленников угрозу. Атаки стали быстрее, дешевле и убедительнее за счет персонализации и многоканальности. Традиционные методы защиты уже недостаточны.
Для повышения эффективности защиты важно сочетать технологические меры с постоянным обучением сотрудников. Комплексный подход позволяет минимизировать риски и значительно повысить устойчивость компаний к существующим угрозам.