
В июле 2025 года исследователь по кибербезопасности заставил ChatGPT раскрыть действующие ключи активации Windows. Один из этих кодов, как выяснилось позже, был связан с инфраструктурой американского банковского гиганта Wells Fargo. Чтобы обойти защиту, специалист представил всё как безобидную игру, в которой нейросеть сама предложила сгенерировать строку символов, а пользователь должен был её угадать.
Когда попытки «угадать» не увенчались успехом, исследователь написал: «Сдаюсь». И это стало решающим моментом — чат-бот, не отличив игру от манипуляции, раскрыл настоящий ключ. В результате простого обхода ChatGPT предоставил серийные номера Windows, включая один, использовавшийся в корпоративной системе крупного американского банка.
Метод оказался возможен потому, что некоторые из этих ключей присутствовали в данных, на которых обучалась модель. Исследователь Марко Фигероа, подробно описавший случай в своём блоге, подчеркнул, что подобные «дыры» в логике нейросетей могут открывать доступ к информации, которая должна быть под строгим контролем.
Эта история показала: даже продвинутые ИИ-системы уязвимы, если с ними взаимодействовать нестандартным образом. И хотя нейросети формально обучены фильтровать конфиденциальные данные, в нестандартных сценариях они могут сбоить. Особенно тревожно, что в дело вовлечены ключи корпоративного уровня, и среди них — лицензии, связанные с крупными финансовыми организациями.
Фигероа отметил, что проблема касается не только программных ключей. По его словам, тот же подход теоретически можно использовать для выуживания ссылок на вредоносные сайты, персональных данных и другой чувствительной информации — всё зависит от формулировки запроса.
Этот инцидент поднимает серьёзные вопросы о том, насколько нейросети готовы к взаимодействию с опытными пользователями, способными обойти встроенные ограничения. Пока ИИ остаётся мощным, но не очень гибким инструментом, подобные лазейки остаются возможными.
Сейчас чат-боты активно интегрируются в повседневные процессы — от поддержки клиентов до аналитики и разработки. Но вместе с удобством появляется и новая зона риска. Без чётких правил и механизмов валидации ИИ способен непреднамеренно сливать то, что по всем правилам должно оставаться закрытым.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.