В России разработали метод защиты систем обнаружения объектов, которые созданы на базе искусственного интеллекта, от кибератак. Как пишет «ТАСС», инновационную разработку представили на открытой конференции ИСП РАН в Москве.
Инженер Исследовательского центра доверенного искусственного интеллекта на базе Института системного программирования им. В. П. Иванникова РАН Леонид Старых пояснил агентству, что ученые создают платформу доверенного искусственного интеллекта. С её помощью разработчики смогут проверить нейронные сети на наличие уязвимостей и повысить их уровень защищенности.
Платформа успешно обнаруживает и «закрашивает» подвергшиеся атаки области в системах видеонаблюдения. С ее помощью даже после атаки система по-прежнему успешно обнаруживает человека.
Авторы проекта считают, что платформа поможет в ситуациях, когда злоумышленники используют специальные изображения, чтобы сделать людей незаметными для системы. Последняя воспринимает их как часть фона. Использование новой разработки позволит защитить систему видеонаблюдения от такой «хакерской слепоты».
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.