Уязвимость в ChatGPT: как ИИ может слить ваши файлы

19.11.2024
Уязвимость в ChatGPT:  как ИИ может слить ваши файлы

В ходе исследования экспертом по кибербезопасности из Mozilla, Марко Фигероа, были обнаружены не задокументированные возможности песочницы ChatGPT от OpenAI, которые могут влиять на конфиденциальность данных. При проведении тестов с использованием стандартных команд Linux в интерфейсе ChatGPT, Фигероа смог получить доступ к файловой системе хост-машины, что выявило потенциал для управления файлами и даже выполнения кода в изолированной среде.

Инцидент с «directory not found», который указывал на возможность доступа к директориям и файлам операционной системы, стал отправной точкой для дальнейшего исследования. Эксперименты показали, что система основана на дистрибутиве Debian и предоставляет расширенные возможности для работы с файлами, включая загрузку и исполнение скриптов.

Помимо технических аспектов, эксперт смог извлечь и анализировать внутренний плейбук ChatGPT, содержащий информацию о принципах взаимодействия с пользователем. Это открытие ставит под вопрос уровень безопасности и прозрачности работы ИИ, ведь доступ к таким данным может способствовать разработке стратегий обхода системных ограничений.

На фоне этих находок в OpenAI отреагировали, заявив, что обнаруженные Фигероа возможности не являются уязвимостью, а лишь частью функциональности песочницы, предназначенной для работы разработчиков. Однако такие заявления не снимают вопросов о потенциальных рисках злоупотреблений, особенно в контексте возможного появления эксплойтов типа «0-day», на что указал исследователь.

2SDnjeQxrTM 2SDnjeQxrTM

Популярные материалы