«Лаборатория Касперского» представила свои принципы этичного использования ИИ в кибербезопасности

«Лаборатория Касперского» представила свои принципы этичного использования ИИ в кибербезопасности

В рамках Глобальной инициативы по информационной открытости «Лаборатория Касперского» представила этические принципы разработки и использования систем на основе машинного обучения. Компания сделала это на Форуме по управлению Интернетом под эгидой ООН, одна из ключевых тем которого в этом году — искусственный интеллект и развивающиеся технологии. «Лаборатория Касперского» организовала дискуссию, во время которой обсуждались этические принципы разработки и использования систем машинного обучения, а также технические и юридические аспекты. В новом документе компания объясняет, как она обеспечивает надёжность систем, основанных на ML-алгоритмах, и призывает других участников отрасли присоединиться к диалогу и выработать общие этические принципы.

«Лаборатория Касперского» использует алгоритмы машинного обучения в своих решениях уже около 20 лет. Сочетание их с человеческим опытом позволяет компании ежедневно обнаруживать и противодействовать множеству новых угроз, причём ML играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. Чтобы способствовать развитию инноваций, «Лаборатория Касперского» сформулировала этические принципы разработки и использования систем машинного обучения и открыто делится ими с представителями отрасли, чтобы придать импульс многостороннему диалогу, цель которого — выработать единые практики использования таких технологий в кибербезопасности для улучшения жизни людей.

По мнению «Лаборатории Касперского», при разработке и использовании AI/ML должны учитываться следующие шесть принципов:

  1. прозрачность;

  2. безопасность;

  3. человеческий контроль;

  4. конфиденциальность;

  5. приверженность целям кибербезопасности;

  6. открытость к диалогу.

Принцип прозрачности означает твёрдое убеждение «Лаборатории Касперского» в том, что компании должны информировать своих клиентов об использовании технологий машинного обучения в своих продуктах и услугах. Компания соблюдает этот принцип, разрабатывая максимально, насколько это возможно, интерпретируемые системы ML и предоставляя заинтересованным сторонам информацию о том, как работают решения компании и каким образом в них используются технологии машинного обучения.

Принцип безопасности находит отражение в широком спектре мер, которые реализует «Лаборатория Касперского» для обеспечения качества своих систем машинного обучения. Среди них — аудит безопасности, специфичный для ML/AI, меры по минимизации зависимости от сторонних наборов данных в процессе обучения AI-решений, а также фокус на облачные технологии машинного обучения с необходимыми мерами защиты вместо моделей, устанавливаемых на машины клиентов.

Принцип человеческого контроля объясняется необходимостью проверять работу AI/ML-систем при анализе сложных угроз. Для обеспечения эффективной защиты «Лаборатория Касперского» стремится оставить человеческий контроль важнейшим элементом всех своих AI/ML-систем.

Поскольку большие данные играют важную роль в процессе обучения таких систем, компании, работающие с алгоритмами машинного обучения, должны учитывать право на цифровую приватность. «Лаборатория Касперского» применяет ряд технических и организационных мер для защиты данных и систем, чтобы обеспечить цифровую приватность пользователей.

Пятый этический принцип отражает стремление «Лаборатории Касперского» использовать AI/ML-инструменты исключительно в целях кибербезопасности. Сосредоточившись исключительно на защитных технологиях, компания следует своей миссии строить более безопасный мир и демонстрирует свою приверженность защите пользователей и их данных.

Шестой принцип касается открытости «Лаборатории Касперского» к диалогу со всеми заинтересованными сторонами с целью обмена передовым опытом в области этичного использования алгоритмов машинного обучения. Компания готова обсуждать эти темы, поскольку считает, что только сотрудничество позволяет преодолевать препятствия, стимулировать инновации и открывать новые горизонты.

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, ещё больше повысить киберустойчивость общества. Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несёт определённые риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки чётких рекомендаций, как сделать разработку таких решений этичной», — комментирует Антон Иванов, директор по исследованиям и разработке «Лаборатории Касперского».

похожие материалы

Стрелочка
Стрелочка
Исследователи обнаружила новый модульный бэкдор ShadowRelay в инфраструктуре госсектора
Исследователи обнаружила новый модульный бэкдор ShadowRelay в инфраструктуре госсектора

Специалисты центра исследования киберугроз Solar 4RAYS выявили ранее неизвестный модульный бэкдор под названием ShadowRelay, который был обнаружен в инфраструктуре одной из организаций государственного сектора.

В РФ ИИ-технологии используют  лишь около 10% компаний
В РФ ИИ-технологии используют лишь около 10% компаний

Исследование компании Artezio совместно с Comindware и ассоциациями «Руссофт» и BPM-профессионалов фиксирует характерный для российского рынка «ИИ-парадокс»: бизнес признаёт стратегическую важность искусственного интеллекта, но не спешит переходить к внедрению.

Минцифры РФ создало рабочую группу для борьбы с противоправным использованием дипфейков
Минцифры РФ создало рабочую группу для борьбы с противоправным использованием дипфейков

Министерство цифрового развития, связи и массовых коммуникаций России сформировало межведомственную рабочую группу, целью которой станет противодействие незаконному использованию технологий типа дипфейк.

Фишинг через календарь: как Google Gemini можно использовать для атак
Фишинг через календарь: как Google Gemini можно использовать для атак

Исследователи по безопасности из компании Miggo рассказали о необычном способе эксплуатации уязвимости, который злоумышленники могут использовать для распространения фишинга и вредоносных ссылок - через пригласительные события в календаре, инициированные ИИ-ассистентом Google Gemini.

Группа Everest заявила о крупной атаке на McDonald’s и похищении почти 1 ТБ данных
Группа Everest заявила о крупной атаке на McDonald’s и похищении почти 1 ТБ данных

Крупная вымогательская группировка Everest ransomware gang, ранее известная по атакам на аэропорты и другие крупные организации, объявила, что стала новым злоумышленником, нацеленным на подразделение McDonald’s в Индии.