ChatGPT легко использовать для мошенничества или кибератак и для этого пользователю не нужно понимать код на продвинутом уровне. О результатах исследования IBM пишет Axios.
Помимо ChatGPT в эксперименте были задействованы и другие большие языковые модели. Перед каждым инструментом на основе искусственного интеллекта поставили задачу написать вредоносный код или дать рекомендации, как обойти правила безопасности.
Исследователи отметили, что для использования инструмента в этих целях достаточно знания английского и базовых сведений о том, как обучают искусственный интеллект. В ходе эксперимента перед большими языковыми моделями была поставлена задача сыграть в игру, где нужно давать заведомо неправильные ответы на поставленные вопросы. В результате этого нехитрого трюка искусственный интеллект предложил свои варианты вредоносного кода, схемы обмана жертв с целью получения выкупа и выполнил ряд других действий, как заправский хакер.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.