
Иногда достаточно одного файла, чтобы поставить под удар целую экосистему. Сотрудник стартапа xAI, созданного Илоном Маском, случайно выложил в публичный репозиторий GitHub приватный API-ключ, который открывал доступ к целому ряду закрытых языковых моделей. И это не просто тестовая игрушка: некоторые из моделей, как выяснилось, были натренированы на данных SpaceX и Tesla, а также касались работы соцсети X.
Ключ обнаружили специалисты из GitGuardian, которые регулярно мониторят публичные площадки на предмет утечек. Они заметили: ключ позволял обращаться к кастомным версиям чат-бота Grok, в том числе к тем, что находились в разработке и вовсе не предназначались для широкой публики. Среди них — исследовательские модели, встроенные в инструменты для анализа соцсетей, телеметрии и даже внутренние алгоритмы фильтрации.
Хуже всего то, что утечку заметили в начале марта, но к концу апреля ключ всё ещё работал. GitGuardian отправили предупреждение, но реакция xAI оказалась крайне вялой. Лишь после повторного сигнала и обращения к службе безопасности репозиторий удалили, а ключ наконец-то отключили.
Специалисты опасаются, что за это время кто-то мог воспользоваться доступом — например, для встраивания вредоносных инструкций (промпт-инъекций) или тестирования защитных механизмов моделей. На фоне обостряющейся гонки в ИИ-сфере такой промах может дорого стоить.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.