В блоге Google Threat Intelligence Group опубликован аналитический материал о том, как злоумышленники используют искусственный интеллект в своих операциях. Эксперты выделяют три ключевых направления: дистилляция моделей, активные эксперименты с генеративными системами и их интеграция в существующие схемы атак.
По данным специалистов, преступные группы и государственные акторы тестируют различные ИИ-инструменты для автоматизации рутинных задач, создания фишинговых материалов и ускорения разработки вредоносного кода. Отдельное внимание уделяется попыткам дистилляции - переносу возможностей более мощных моделей в собственные инструменты через обучение на их выходных данных.
В отчете подчеркивается, что пока ИИ чаще используется как усилитель уже известных техник, а не как источник принципиально новых видов атак. Тем не менее наблюдается постепенная интеграция генеративных моделей в инфраструктуру злоумышленников, включая сценарии социальной инженерии и подготовку вредоносных скриптов.
Google отмечает, что уровень технической сложности таких атак варьируется, но тенденция очевидна: ИИ становится частью стандартного инструментария атакующих. Это требует от организаций пересмотра подходов к мониторингу угроз и более активного использования ИИ-технологий в оборонительных целях.