
OpenAI сделала заявление, что заблокировала несколько аккаунтов в ChatGPT, которые принадлежали северокорейским хакерам. Эти злоумышленники использовали искусственный интеллект для поиска уязвимостей в системе и создания инструментов для взломов, что поднимет тревогу у всех, кто еще сомневается в потенциале ИИ как оружия.
Группировки Velvet Chollima и Stardust Chollima (связанные с известными хакерскими группами КНДР) использовали ChatGPT для генерации кода, который помогал им обходить системы защиты и совершать атаки с помощью RDP-протокола. Они не остановились на этом: пытаясь внедрить свои люди в американские компании, они использовали фальшивые схемы трудоустройства для привлечения IT-специалистов из Северной Кореи.
Как это было возможно? По словам представителей OpenAI, аккаунты были выявлены с помощью партнеров компании, которые также заметили подозрительную активность. Этот инцидент подчеркивает важность усиленной безопасности и контроля за использованием ИИ.
Между тем, OpenAI активно сотрудничает с Национальными лабораториями США, предоставляя доступ к своим моделям для работы в области ядерной безопасности. Подобные партнерства могут стать решающим фактором в борьбе с угрозами, но в то же время они открывают новые риски.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.