Компания Anthropic заявила, что заблокировала первую публично задокументированную шпионскую операцию, в которой искусственный интеллект использовался не как вспомогательный инструмент, а как полноценный исполнитель атак. По словам компании, злоумышленники превратили модель Claude в автономного «оператора», который собирал данные, писал эксплойты и подбирал учётные записи без участия человека.
Инцидент выявили в сентябре. Система мониторинга заметила аномальный поток запросов, напоминающих действия автоматизированного вредоносного агента. Расследование показало, что ИИ использовался для разведки инфраструктуры, генерации кода для взлома, поиска уязвимостей, подготовки фишинговых сценариев и обхода механизмов защиты. Человеческая роль, по оценке компании, ограничивалась стратегическими указаниями и выбором целей.
Операция затрагивала разные организации по всему миру, включая технологические компании, финсектор и научно-исследовательские учреждения. Anthropic подчёркивает, что речь шла не о единичном эпизоде, а о связной многоступенчатой кампании, где большая часть вредоносной активности осуществлялась автоматически.
Компания заблокировала злоумышленников, уведомила пострадавшие стороны и передала сведения правоохранительным органам. Исследователи считают, что подобные случаи станут чаще по мере роста автономности ИИ-систем, и предлагают отрасли выработать общие стандарты по обнаружению и мониторингу ИИ-злоупотреблений.