Новая уязвимость искусственного интеллекта получила название «эксплойт бабушки»

21.04.2023
Новая уязвимость искусственного интеллекта  получила название «эксплойт бабушки»

Чат-бот Clyde из Discord, как и его «коллеги», отказывается говорить с пользователями о некоторых вещах, представляющих опасность. Например, бот не подскажет, как самому получить опасные химические вещества. Однако пользователи сумели обойти установленное ограничение. Новую уязвимость чат-бота в шутку называют «эксплойт бабушки».  

Джеймс Винсент, журналист издания The Verge, выяснил, что ограничение легко обойти, если попросить нейросеть притвориться кем-то другим. В эксперименте он предложил боту взять на себя роль покойной бабушки, которая работала на химическом производстве и якобы перед сном всегда рассказывала внуку о производстве напалма. Эксперимент удался. Чат-бот начал говорить от лица покойной бабушки и выдал полную инструкцию по изготовлению опасного вещества.

Другой пользователь вдохновился результатами Винсента и попросил нейросеть сделать сценарий фильма. По сюжету бабушка укладывает внука спать, читая ему вредоносный код для Linux. Эта задача также была выполнена, хотя чат-бот и предупредил, что делает это только в развлекательных целях.



Популярные материалы