PromptArmor сообщила о серьёзной уязвимости в Google Antigravity - системе, в которой ИИ-агенты могут не только писать, но и выполнять код. Исследователи показали, что агент можно заставить украсть данные пользователя, если подать ему корректно оформленное, но скрытое указание.
Сценарий работает так. Злоумышленник публикует обычное руководство по внедрению или технический гайд. Внутри текста размещается командная строка, набранная микрошрифтом, незаметным для человека. Агент считывает её как часть задания и запускает терминал. Дальше он может прочитать любые файлы, доступные внутри среды, включая .env. После этого система сама вызывает подагента браузера и переходит по заранее подготовленной ссылке, передавая секретные данные в URL.
Несмотря на то, что Antigravity предупреждает об ограничениях на доступ к конфиденциальным файлам, эксперимент показывает, что агент обходит их без сопротивления. Достаточно одного вредоносного источника, чтобы среда выполнила неподконтрольное действие. Утечка может произойти без видимого для пользователя сигнала.
Этот случай подчёркивает новую зону риска на рынке инструментов с автономным исполнением кода. Даже простое чтение потенциально опасного сайта может обернуться передачей секретов. R&D-командам придётся учитывать подобные сценарии и усиливать проверку источников, прежде чем передавать материалы в агентную среду.