ChatGPT случайно выдал ключи Windows - игру превратили в лазейку

ChatGPT случайно выдал ключи Windows - игру превратили в лазейку

В июле 2025 года исследователь по кибербезопасности заставил ChatGPT раскрыть действующие ключи активации Windows. Один из этих кодов, как выяснилось позже, был связан с инфраструктурой американского банковского гиганта Wells Fargo. Чтобы обойти защиту, специалист представил всё как безобидную игру, в которой нейросеть сама предложила сгенерировать строку символов, а пользователь должен был её угадать.

Когда попытки «угадать» не увенчались успехом, исследователь написал: «Сдаюсь». И это стало решающим моментом — чат-бот, не отличив игру от манипуляции, раскрыл настоящий ключ. В результате простого обхода ChatGPT предоставил серийные номера Windows, включая один, использовавшийся в корпоративной системе крупного американского банка.

Метод оказался возможен потому, что некоторые из этих ключей присутствовали в данных, на которых обучалась модель. Исследователь Марко Фигероа, подробно описавший случай в своём блоге, подчеркнул, что подобные «дыры» в логике нейросетей могут открывать доступ к информации, которая должна быть под строгим контролем.

Эта история показала: даже продвинутые ИИ-системы уязвимы, если с ними взаимодействовать нестандартным образом. И хотя нейросети формально обучены фильтровать конфиденциальные данные, в нестандартных сценариях они могут сбоить. Особенно тревожно, что в дело вовлечены ключи корпоративного уровня, и среди них — лицензии, связанные с крупными финансовыми организациями.

Фигероа отметил, что проблема касается не только программных ключей. По его словам, тот же подход теоретически можно использовать для выуживания ссылок на вредоносные сайты, персональных данных и другой чувствительной информации — всё зависит от формулировки запроса.

Этот инцидент поднимает серьёзные вопросы о том, насколько нейросети готовы к взаимодействию с опытными пользователями, способными обойти встроенные ограничения. Пока ИИ остаётся мощным, но не очень гибким инструментом, подобные лазейки остаются возможными.

Сейчас чат-боты активно интегрируются в повседневные процессы — от поддержки клиентов до аналитики и разработки. Но вместе с удобством появляется и новая зона риска. Без чётких правил и механизмов валидации ИИ способен непреднамеренно сливать то, что по всем правилам должно оставаться закрытым.

похожие материалы

Стрелочка
Стрелочка
В 2025 году злоумышленники похитили данные более 1 миллиона банковских аккаунтов по всему миру
В 2025 году злоумышленники похитили данные более 1 миллиона банковских аккаунтов по всему миру

Согласно глобальному отчёту* «Лаборатории Касперского» по финансовым угрозам, в 2025 году при помощи программ для кражи данных (стилеров) было скомпрометировано более 1 миллиона банковских аккаунтов.

Эксперты подвели итоги исследования киберугроз за первые три месяца 2026 года
Эксперты подвели итоги исследования киберугроз за первые три месяца 2026 года

В течение первого квартала 2026 года эксперты компании «Перспективный мониторинг» проводили комплексный мониторинг информационного пространства, направленный на выявление актуальных угроз и тенденций в сфере информационной безопасности.