Positive Technologies опубликовала подробный отчет о возможностях и перспективах применения хакерами технологий искусственного интеллекта. По прогнозам экспертов компании, в будущем киберпреступники смогут использовать ИИ во всех тактиках из матрицы MITRE ATT&CK, а также в 59% ее техник.
Исследователи отмечают, что раньше ИИ использовался злоумышленниками лишь в 5% всех техник MITRE ATT&CK, а еще в 17% была доказана возможность его применения.
Однако в будущем эти числа могут существенно увеличиться из-за распространения легальных инструментов с ИИ. Эксперты напоминают, что в течение года после выхода ChatGPT4 количество фишинговых атак выросло на 1265%, и ожидают, что ИИ продолжит усиливать арсенал киберпреступников.
Аналитики считают, что в условиях интенсивного развития таких технологий, разработчики языковых моделей не всегда уделяют достаточное внимание защите LLM от генерации вредоносного текста, кода или инструкций, что может повлечь за собой всплеск киберпреступной активности. Так, например, хакеры уже используют ИИ для создания скриптов и проверки кода при подготовке ВПО. Кроме того, обращение к большим языковым моделям помогает начинающим киберпреступникам, которые не обладают серьезными навыками и ресурсами, ускорить подготовку к атаке и упростить ее проведение. Этот аспект также влияет на рост числа инцидентов с применением ИИ. Например, злоумышленник может уточнить, не упустил ли он чего-то в своем плане проведения атаки, или изучить различные подходы к реализации определенного шага.
Среди других факторов, которые влияют на более активное применение искусственного интеллекта в атаках, эксперты выделяют слабую защищенность развивающихся стран, где даже несовершенные инструменты с такими технологиями могут успешно использоваться. Кроме того, в этом направлении киберпреступников подталкивает сама гонка вооружений атакующих и защитников.
«Высокий потенциал искусственного интеллекта в кибератаках — не повод для паники, — комментирует ситуацию аналитик исследовательской группы департамента аналитики Positive Technologies Роман Резников. — Нужно реалистично смотреть в будущее, изучать возможности новых технологий и системно заниматься обеспечением результативной кибербезопасности. Логичная контрмера атакующему ИИ — более эффективный ИИ в защите, который поможет преодолеть нехватку специалистов для защиты от кибератак через автоматизацию многих процессов».
Эксперты отмечают, что с помощью ИИ уже можно автоматически генерировать фрагменты вредоносного кода, фишинговые сообщения и дипфейки, автоматизировать отдельные этапы кибератак, в том числе управление ботнетом. Однако развить и создать новые инструменты с искусственным интеллектом для автоматизации и масштабирования кибератак смогут только опытные злоумышленники. В ближайшем будущем аналитики ожидают появления отдельных модулей для решения конкретных задач в уже известных сценариях атак. С течением времени киберпреступные инструменты и модули с ИИ будут объединяться в кластеры для автоматизации этапов атаки, пока не смогут покрыть большую их часть. Если злоумышленникам удастся автоматизировать проведение атак на выбранную цель, следующим шагом может стать расширение «полномочий» искусственного интеллекта — самостоятельный поиск целей.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.