Пишет дипломные работы и программный код, в диалоге ведет себя как человек, а еще генерит вредоносный код – все это про ChatGPT. Чат-бот так взбудоражил общественность, что компании-разработчику пришлось отменить его последнее обучение нейросетью.
Критики ChatGPT беспокоятся, что технология заменит труд специалистов. Их успокаивают AI-разработчики. По их словам, чат с нейросетью создавали с другой целью – чтобы упростить работу людей.
Как ChatGPT помогает решать задачи ИБ-специалиста? И выгодно ли использовать его в киберпреступлениях? Ответы и мнения экспертов – в этой статье.
ChatGPT – это чат-бот с искусственным интеллектом, который осенью 2022-го открыла миру компания OpenAI. Технология представляет собой языковую модель на базе нейросети. Чтобы повысить характеристики, ее обучали несколько раз. Сначала – на массиве текстов из интернета, а потом – с помощью обратной связи от человека и на собственных ответах.
Все это привело к впечатляющим результатам, а именно к высокой корректности и универсальности технологии. В итоге ChatGPT превратился в многозадачного чат-бота, который ведет диалог и спорит с пользователем, пишет стихи, сценарии, научные публикации и другие тексты, генерит изображения, пилит свой код и находит ошибки в чужом. И это далеко не весь список возможностей нейросети.
Использовать продукт может каждый. Причем доступ дают бесплатно, главное – зарегистрироваться. Хотя пройти верификацию по российскому номеру сейчас нельзя. Во всяком случае, пока в OpenAI действуют ограничения для граждан РФ.
Тем не менее количество пользователей чат-бота уже превышает 100 млн человек по всему миру. ChatGPT тестируют и начинают применять во многих областях. Киберпреступления – в их числе.
ChatGPT – это прежде всего языковая модель, поэтому ей по зубам любые тексты. Нейросеть справляется с любым жанром – от научных диссертаций до email, чем охотно пользуются кибермошенники.
Константин Карасев
Архитектор информационной безопасности в R-Vision
Атакующие могут использовать ChatGPT для генерации очень убедительных фишинговых писем, а также при разработке и применении методов социальной инженерии с целью мошенничества. С технической точки зрения чат-бот на основе ИИ злоумышленники могут применять для разработки эксплойтов, генерации полезной нагрузки (payload), создания скриптов практически на любом языке.
Есть случаи, когда злоумышленники подключают чат-бот, чтобы генерировать дипфейки. Так они подделывают личные фото жертв.
Олег Скулкин
Руководитель управления киберразведки, BI.ZONE
Затем преступники требуют выкуп за то, чтобы не публиковать фото. Еще один вариант — имитация голоса с помощью ИИ, например, для звонков «из службы безопасности».
Известны случаи, когда мошенники создавали сайты, предлагающие якобы бесплатный доступ к ChatGPT и другим чат-ботам и нейросетям. Чтобы получить его, пользователь вводил свои персональные данные, которые отправлялись прямиком к злоумышленникам.
И конечно, как отмечает Олег Скулкин, преступники активно собирают чувствительные данные, которые чату с нейросетью «скармливают» беспечные пользователи.
Еще один плюс для злоумышленников – ChatGPT находит проблемы в коде и нестыковки в настройках. И то, и другое – поиск уязвимостей, которые преступники часто используют в атаках.
При этом чат-бот может сам создавать вредоносное программное обеспечение по заранее созданным примерам, а также пытаться маскировать его. Хотя на практике такие эксперименты редко бывают успешными. В этом часто признаются участники даркнет-форумов. К тому же, как напоминают эксперты, искусственный интеллект пока не может выполнить главное действие – спланировать и осуществить успешную атаку.
Еще один негативный для ИБ сценарий – ChatGPT можно применять для реверс-инжиниринга ПО или отдельных файлов. Нейросеть заметно упрощает обратную разработку приложений.
Евгений Андрюхин
Специалист по тестированию на проникновение Awillix
Одной из популярных тем выступлений на конференциях по информационной безопасности является использование ChatGPT для обратной разработки приложений. Технологию могут применять с целью автоматизированного анализа, выявления обфускации приложений и составления графов потоков данных фрагментов псевдокода.
Постепенно ChatGPT в руках преступника становится удобным и популярным инструментом, что подвергает компании огромному риску. По словам экспертов, его использование в первую очередь грозит утечкой персональных данных и чувствительной информации.
Как и любой другой инструмент, ChatGPT можно использовать и во вред, и на пользу компании. Пока злоумышленники пытаются воспользоваться нейросетью в своих целях, специалисты по кибербезопасности примеряют мультитул для себя.
Сергей Полунин
Руководитель группы защиты инфраструктурных ИТ компании «Газинформсервис»
Кейсов уже довольно много. Крупные вендоры начали встраивать это решение в свои продукты. ChatGPT позволяет автоматизировать настройку серверов, решать рутинные задачи по анализу логов, создавать программы обучения для сотрудников. Если понимать, как эта технология устроена и в чем ее ограничение, сценариев можно придумать бесчисленное множество.
Автоматизация с ChatGPT может заметно упростить работу ИБ-специалистов в нескольких направлениях. Например, с его помощью можно ускорить отслеживание угроз и моделирование сценариев атак. Безопаснику нужно лишь вовремя отреагировать на тревожный сигнал.
Юрий Ряднина
Автор канала Багхантер
Технология упрощает работу за счет автоматизации рутинного труда. Зачем это делать самому, если можно заставить искусственный интеллект?
Ни один специалист по ИБ не может знать так много, как знает ChatGPT. Ориентироваться сразу в множестве сфер невозможно, поэтому по некоторым вопросам можно сейчас пообщаться с ChatGPT. Он помогает прояснить непонятные моменты.
Также эксперты информационной безопасности уже используют ChatGPT для поиска меток компрометации, анализа веб-ресурсов на предмет фишинга или создания прототипов безопасного кода.
Артем Бруданин
Руководитель направления кибербезопасности RTM Group.
Для некоторых инструментов, применяемых в тестировании на проникновение, созданы модули, использующие возможности ChatGPT. Кроме этого, нейросеть можно научить составлять эффективные тексты для проведения социотехнического тестирования сотрудников, анализируя интересы и личность человека.
Также ChatGPT – это помощник в написании регламентов, политик, инструкций и других документов, а также в разработке различных правил для настройки ПО (МЭ, SIEM и т.д.).
Несмотря на множество плюсов, есть в ChatGPT и подводные камни. Эксперты поясняют: пока лучше использовать технологию в ознакомительных целях. Иначе компания рискует потерять чувствительные данные.
Олег Скулкин
Руководитель управления киберразведки, BI.ZONE
Именно так получилось с сотрудниками Samsung, которые поделились с ChatGPT внутренним кодом, чтобы проверить его на ошибки. Но, подчеркиваю, такие случаи – результат именно человеческой беспечности.
Эксперты уточняют: риски использования чат-бота с нейросетью пока довольно высоки. И зачастую они связаны с предоставлением ChatGPT фиктивной информации, то есть генерации несуществующих фактов.
Константин Карасев
Архитектор информационной безопасности в R-Vision
Еще одним фактором риска может быть неверная интерпретация входных данных, что повлияет и на соответствующий ответ. Это, в свою очередь, может привести к неправильным решениям в ИБ и, как результат, значительным негативным последствиям для организации в целом.
И наконец, актуальный повод отложить тестирование – загружаемые в ChatGPT данные хранятся в зарубежном облаке. А это не лучший вариант для российских компаний сегодня.
ChatGPT – это инструмент, с которым все чаще знакомятся как преступники, так и ИБ-специалисты. Эксперименты на обоих фронтах пока не всегда проходят успешно.
Однако атакующие и защитники все равно не теряют интереса к чату с нейросетью. Факт подтверждается новыми кейсами и дискуссиями в сообществах. В полезности ChatGPT еще не убедились ни преступники, ни безопасники. А это значит, что эксперименты еще продолжатся, и обеим сторонам нужно к ним подготовиться.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.
Зарегистрироваться