
Руководитель направления кибербезопасности EdgeЦентр
По мере развития технологий развиваются и киберугрозы — традиционных методов кибербезопасности зачастую уже недостаточно. ИИ может обеспечить качественный скачок в надежности кибербезопасности, предлагая продвинутые решения для обнаружения, устранения и предотвращения угроз. ИИ-решения, включающие в себя машинное обучение и аналитику данных, позволяют обнаруживать паттерны, предсказывать атаки и минимизировать их последствия в режиме реального времени. Максим Большаков, руководитель направления кибербезопасности EdgeЦентр, рассказал, о том, как они работают и какие преимущества дают использующим их организациям.
Искусственный интеллект используется, чтобы трансформировать большие массивы данных в информацию, с которой легко работать. Это позволяет использовать его как для защиты от существующих кибератак, так и для предотвращения еще неизвестных угроз.
В первом варианте, ИИ обнаруживает аномалии сетевого трафика или отслеживает паттерны поведения пользователей на конечных устройствах (компьютерах или мобильных телефонах) — нарушение этих паттернов может говорить о неавторизованном доступе в систему. ИИ может также использоваться для автоматизации многих процессов безопасности — например, при найме новых сотрудников и обеспечении их необходимыми для работы допусками к информационным ресурсам.
Во втором варианте, ИИ может обнаруживать ранее неизвестные угрозы (zero-day), выявляя отклонения от стандартных моделей поведения. Однако результаты его работы зависят от качества данных и архитектуры модели. Кроме того, злоумышленники постоянно разрабатывают новые методы обхода ИИ-решений, так что здесь не обойтись без активного использования машинного обучения, позволяющего постоянно повышать эффективность работы искусственного интеллекта.
Прежде всего, это эффективное использование ресурсов. Искусственный интеллект берет на себя многие рутинные процессы и анализирует большие объемы данных в режиме реального времени. Благодаря этому реакция на киберинциденты будет более быстрой и эффективной. Кроме того, ИИ позволяет справиться с нехваткой квалифицированного персонала и перенаправить ресурсы имеющихся специалистов на более важные стратегические задачи.
Одна из слабостей традиционных систем кибербезопасности — необходимость оперативного человеческого вмешательства, и допущенные в ситуации цейтнота ошибки могут стоить очень дорого. ИИ убирает этот фактор из многих процессов, минимизируя вероятность таких ошибок.
Принцип работы ИИ дает возможность активно применять предикативные методики обнаружения угроз и реагировать на них даже без предварительно подготовленных шаблонов.
Наконец, благодаря стандартизации процедур и возможности заполнить потенциальные «дыры» в системе безопасности ИИ способен самостоятельно предотвратить возможные угрозы и обеспечить более быструю реакцию на реальные атаки.
ИИ пока не может стать «волшебной палочкой» в кибербезе и имеет некоторые ограничения.
Возможны ложные срабатывания (false positives/negatives). Чтобы справиться с этой проблемой, необходимо обеспечить постоянное обучение ИИ-моделей на основе проверенных данных и внедрить систему двойного контроля с использованием человеческих ресурсов.
Зависимость от качества обучающих данных. Некорректные данные приводят к некорректным шаблонам работы ИИ-инструментов. Именно поэтому обучение моделей должно проходить под постоянным надзором специалистов, способных заметить неправильные срабатывания и скорректировать процесс.
Необходимость постоянного обновления и дообучения моделей. Это сложно назвать реальным ограничением — скорее, особенностью, помогающей оперативно реагировать на новые угрозы. Но эту особенность необходимо учитывать при внедрении ИИ в любой сфере, в том числе кибербезопасности.
Риск атак на сами модели ИИ (adversarial attacks). Такие атаки используют уязвимости моделей, предоставляя им ложные примеры и заставляя выдавать неправильные результаты. Ключом к предотвращению риска таких атак могут стать adversarial-обучение (целенаправленное предоставление adversarial-примеров, чтобы сделать модель более устойчивой к этому типу атак) и внедрение ансамблей моделей (использование усредненных прогнозов нескольких моделей).
Этические аспекты. К ним могут относиться обеспечение конфиденциальности и защиты персональных данных при анализе трафика; прозрачность алгоритмов принятия решений ИИ; предотвращение дискриминации и предвзятости в обучающих данных; ответственность за автоматические действия, предпринимаемые ИИ (например, блокировка доступа).
ИИ-инструменты, такие, как капча, распознавание по лицу или отпечатку пальца, позволяют повысить безопасность на точке входа пользователя и предотвратить действия, способные поставить под угрозу всю сеть — например, брутфорс-атаки или подстановку пользовательских данных.
Использование ИИ значительно упрощает обнаружение аномального поведения и индикаторов вредоносных сообщений. Благодаря машинному обучению искусственный интеллект лучше понимает принципы общения пользователей, их типичное поведение и особенности написания текстов. Это особенно важно для предотвращения продвинутых угроз, например, целевого фишинга, когда преступники подделывают сообщения ключевых персон — руководства, финансового департамента, HR и т.д.
ИИ активно применяется в кибербезопасности для обнаружения аномалий, которые могут свидетельствовать о кибератаках. Системы ИИ анализируют огромные потоки данных в режиме реального времени, выявляя отклонения от привычного поведения пользователей, устройств или сетевого трафика. Например, резкое увеличение объема передачи данных или необычные попытки доступа к ресурсам могут быть выявлены как аномалии, что позволяет оперативно реагировать на потенциальные угрозы.
ИИ можно использовать для реализации политики безопасности, определения безопасных подключений и идентификации подключений, которые требуют дополнительного внимания из-за потенциальной угрозы вредоносных действий. ИИ отслеживает текущие модели сетевого трафика и анализирует полученные данные, благодаря чему может действовать не только реактивно, но и проактивно — предлагая корректировки в существующую политику и дополнительные меры безопасности.
Все эти и многие другие задачи ИИ будет эффективно выполнять только в том случае, если у него есть все необходимое для постоянного улучшения процессов. Обеспечить это можно следующими способами:
Ключевые методы машинного обучения, применяемые для обнаружения киберугроз, включают:
Среди лидеров рынка, использующих ИИ для обнаружения киберугроз выделю некоторые решения:
Darktrace — платформа на основе машинного обучения для выявления аномалий в сетевом трафике.
Vectra AI — анализирует сетевые потоки и поведение пользователей для обнаружения угроз.
Cylance (BlackBerry) — использует ИИ для предотвращения вредоносных программ до их исполнения.
CrowdStrike Falcon — облачное решение для обнаружения и реагирования на инциденты.
Нажимая на кнопку, я даю Согласие на обработку персональных данных в соответствии с Политикой обработки.
Зарегистрироваться