Группа исследователей сообщила, что смогла взломать уязвимости нулевого дня, которые еще не известны, с помощью команды автономных агентов на основе крупных языковых моделей (LLM), используя метод иерархического планирования с агентами, выполняющими специфические задачи (HPTSA).
Исследователи смогли успешно взломать более половины тестируемых веб-сайтов, используя автономные команды ботов на базе GPT-4. Эти боты координировали свои действия и создавали новых ботов по мере необходимости, используя ранее неизвестные уязвимости нулевого дня. Уязвимости уже известны, но для них еще не выпущены исправления. Если предоставить списки CVE, GPT-4 смог самостоятельно эксплуатировать 87% критических уязвимостей.
Руководитель лаборатории исследований кибербезопасности аналитического центра кибербезопасности «Газинформсервиса» Вадим Матвиенко считает, что новые угрозы, связанные с использованием ИИ непременно будут нарастать, но в тоже время, и защита от них уже существует. «Искусственный интеллект (ИИ) находит применение во многих сферах жизни человека, являясь мощным инструментом для решения разнообразных задач. Информационная безопасность также не остаётся в стороне. Исследования ученых подтверждают эти прогнозы. Уже сейчас ИИ используется как черными, так и белыми хакерами. Поэтому важно быть готовыми быстро реагировать на новые угрозы В этой задаче помогают системы выявления аномалий на основе машинного обучения, такие как Ankey ASAP».
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.