ИИ в кибербезопасности: применение и угрозы 2025

ИИ в кибербезопасности: применение и угрозы 2025
Евгения Шафоростова
Евгения Шафоростова

Автор

Искусственный интеллект стал не только инструментом защиты, но и грозным оружием в руках злоумышленников. Алгоритмы машинного обучения анализируют миллионы событий в секунду, выявляя аномалии и атаки нулевого дня, а генеративные модели создают убедительные фишинговые письма и даже вредоносный код. Cyber Media разбирает, как ИИ помогает кибербезопасности, какие риски несет его использование и как специалисты учатся держать технологии под контролем.

Содержание статьи:

  1. Введение
  2. Определение ИИ в контексте кибербезопасности
  3. Применение ИИ для защиты
  4. Машинное обучение в SIEM-системах
  5. AI-powered EDR и XDR решения
  6. ИИ-угрозы и атаки
  7. Автоматизация процессов безопасности
  8. Будущее ИИ в кибербезопасности
  9. Заключение

Введение

ИИ прочно обосновался в кибербезопасности — не как модный тренд, а как рабочий инструмент, без которого трудно представить анализ событий, поиск аномалий и реагирование на инциденты. Алгоритмы машинного обучения не устают, не отвлекаются и способны заметить закономерности, которые человек просто не успеет разглядеть в потоке логов и телеметрии.

Если раньше SOC-аналитик вручную просматривал тысячи алертов, то теперь ИИ делает предварительную сортировку, выявляет связи между событиями и даже предлагает сценарии реагирования. Масштабы инфраструктур растут, объем данных стремится к бесконечности — и без автоматизации с элементами ИИ управлять защитой уже невозможно.

Те же технологии, что помогают защитникам, становятся оружием в руках атакующих. Генеративные модели создают правдоподобные фишинговые письма, deepfake-голоса имитируют руководителей, а нейросети обучаются на утекших данных. В итоге искусственный интеллект превращается в новую точку напряжения — мощный инструмент, который может работать как на благо, так и во вред.

Сегодня кибербезопасность — это не просто борьба людей с машинами, а взаимодействие человека и ИИ против другого ИИ. И чем раньше мы научимся использовать его осознанно, тем выше шансы сохранить контроль над ситуацией.

Определение ИИ в контексте кибербезопасности

Когда мы говорим об искусственном интеллекте в кибербезопасности, это не про «умные» машины, которые мыслят как человек, а про системы, способные учиться и принимать решения на основе огромных массивов данных.

ИИ — под этим термином скрываются разные подходы: от классического ML, где алгоритм учится распознавать паттерны по примерам, до deep learning, способного находить сложные взаимосвязи в потоках телеметрии.

Машинное обучение — это практическая часть ИИ, его «рабочая лошадка». Алгоритмы ML строят модели, которые могут, например, определить, что сетевой трафик ведет себя подозрительно или что в системе началась аномалия.

Генеративные модели, напротив, не просто анализируют данные — они создают новое содержимое: текст, код, изображения, даже фишинговые письма. В кибербезопасности они одновременно инструмент и угроза: помогают писать отчеты и автоматизировать поиск уязвимостей, но также могут генерировать вредоносный код или подделывать коммуникацию.

Сегодня ИИ используется в кибербезопасности на нескольких ключевых направлениях:

  • обнаружение угроз — анализ трафика, выявление аномалий, корреляция событий;
  • автоматизация реагирования — сокращение времени между инцидентом и действием;
  • поведенческая аналитика — определение «нормального» поведения пользователей и систем;
  • прогнозирование атак — построение моделей, предсказывающих вероятность компрометации;
  • улучшение аналитики SOC — помощь операторам в приоритизации инцидентов и снижении шума.

Другими словами, ИИ в кибербезопасности — это не замена специалисту, а усилитель его возможностей. Он берет на себя рутину, оставляя человеку самое важное — понимать контекст, оценивать риски и принимать решения.

Применение ИИ для защиты

Мощь ИИ раскрывается в скорости и масштабируемости. Там, где аналитик видит одно событие, алгоритм замечает закономерность среди тысяч. Он не просто реагирует, а предугадывает атаки, связывая мелкие аномалии в единую цепочку.

Николай Калуцкий

Ведущий инженер-программист НОЦ ФНС России и МГТУ им. Н.Э. Баумана

ИИ способен быстрее реагировать на изменения в поведении пользователей и странности запросов к сервису, выявлять аномалии и прогнозировать угрозы. Однако он не дает 100% гарантии. Это лишь дополнительный инструмент.

Современные решения с ИИ анализируют трафик, поведение пользователей и телеметрию с рабочих станций. Алгоритмы замечают, когда привычные процессы начинают вести себя странно — обращаться к необычным адресам или передавать лишние данные. Такие сигналы становятся поводом для проверки задолго до инцидента.

Иван Рябов

Ведущий инженер компании «Газинформсервис», эксперт по пентесту

ИИ позволяет бороться с атаками нулевого дня путем анализа аномального поведения. Решения СЗИ бывают малоэффективны против неизвестных угроз, но алгоритмы машинного обучения выявляют отклонения от «нормальной» активности системы, пользователя или сети. Например, в некоторых решениях WAF есть возможность использования модели ИИ, что позволяет сначала обучить ее на массиве легитимных данных (запросов), а затем блокировать либо отправлять алерты об аномалиях. Модели, обученные на огромных массивах данных, способны идентифицировать признаки эксплуатации уязвимости, которые могут не заметить другие СЗИ. Таким образом, ИИ анализирует общее поведение и выявляет подозрительную активность.

На практике ИИ уже встроен в большинство современных защитных решений:

  • EDR/XDR-платформы, например, CrowdStrike, SentinelOne, Kaspersky EDR, используют поведенческие модели, чтобы выявлять подозрительные процессы и блокировать их до нанесения ущерба.
  • Сервисы Threat Intelligence обучают модели на данных об инцидентах, помогая прогнозировать новые векторы атак.
  • Системы почтовой безопасности используют NLP-модели для распознавания фишинга, даже если текст письма сгенерирован нейросетью.

Результат — сокращение времени обнаружения с дней и недель до часов или даже минут. ИИ не заменяет специалистов, но становится их надежным помощником, снимая рутину, фильтруя шум и позволяя сосредоточиться на действительно сложных и творческих задачах — там, где без человеческого интеллекта пока не обойтись.

Машинное обучение в SIEM-системах

Если раньше SIEM-система была просто «хранилищем логов с корреляцией по правилам», то теперь она все чаще превращается в аналитическую платформу с элементами машинного обучения. Алгоритмы ML помогают разобраться в хаосе событий безопасности, вычленяя действительно важное и отбрасывая шум.

Главная задача машинного обучения здесь — распознавать закономерности и аномалии, которые сложно описать вручную. Вместо жестких правил «если–то» модели анализируют поведение систем и пользователей, находят отклонения и учатся на исторических данных. Это позволяет ловить не только известные сигнатуры, но и ранее невидимые цепочки активности.

Один из самых ощутимых эффектов — снижение ложных срабатываний. Алгоритмы классифицируют события по степени риска и помогают SOC-команде сосредоточиться на инцидентах, где действительно есть угроза. Благодаря ML можно сократить поток алертов в разы, сохранив при этом полноту обнаружения.

На практике машинное обучение уже встроено в ведущие SIEM-решения:

  • Splunk использует ML для автоматической корреляции событий и поведенческого анализа пользователей (UEBA).
  • IBM QRadar применяет статистические модели для выявления отклонений в активности сервисов и сетевых узлов.
  • Microsoft Sentinel интегрирует ML с Threat Intelligence, предлагая прогнозы вероятных атак.

В SOC это означает одно: меньше ручной рутины, больше фокуса на расследовании и принятии решений. Машинное обучение превращает SIEM из инструмента наблюдения в полноценного помощника аналитика — внимательного, обучаемого и всегда на посту.

AI-powered EDR и XDR решения

Именно на уровне эндпоинтов чаще всего начинается атака — с запуска подозрительного файла, фишингового письма или эксплойта в браузере. Поэтому именно здесь искусственный интеллект стал настоящим гейм-чейнджером.

Современные EDR и XDR-системы с поддержкой ИИ анализируют все: процессы, сетевые подключения, поведение приложений, обращения к памяти. Алгоритмы учатся на миллионах примеров нормальной активности и могут за доли секунды определить, что что-то пошло не так.

Станислав Ежов

Директор по ИИ «Группы Астра»

ИИ трансформирует роль SOC-аналитиков, автоматизируя до 15% рутинных задач уровня L1 и освобождая специалистов для решения сложных аналитических задач. Аналитики эволюционируют в AI Security Engineers и ML-тренеров с ростом зарплат на 30-40%. ИИ помогает классифицировать инциденты, обогащать рекомендации контекстом аналогичных событий и снижать время реагирования с часов до секунд. Однако полная замена аналитиков невозможна — человеческая экспертиза остается критичной для настройки систем, принятия стратегических решений и анализа сложных APT-атак.

ИИ выявляет поведение, характерное для атак, например, внезапное шифрование множества файлов, неестественные запросы PowerShell или попытки обойти средства защиты. Даже если конкретный вредонос неизвестен, модель распознает саму логику атаки и блокирует действия до того, как они нанесут ущерб.

Такие системы умеют не только детектировать, но и реагировать автоматически: изолировать зараженный хост, остановить процесс, уведомить SOC и передать контекст для дальнейшего анализа.

Михаил Хлебунов

Директор по продуктам Servicepipe

Прежде всего ИИ помогает анализировать большой объем данных в моменте. В России ИИ в работе SOC используется не так активно, но в мире это один из основных паттернов использования — помощь в анализе данных.

Для аналитиков это огромный плюс — меньше ручного расследования и больше уверенности, что инцидент не пройдет незамеченным. По сути, ИИ превратил EDR/XDR из инструмента наблюдения в активного участника защиты — быструю, самонастраивающуюся первую линию обороны.

ИИ-угрозы и атаки

ИИ перестал быть только инструментом защиты — он активно используется злоумышленниками. Генеративные модели вроде ChatGPT или LLaMA позволяют автоматически создавать фишинговые письма и фрагменты вредоносного кода. Атаки стали быстрее, точнее и сложнее для обнаружения: алгоритмы имитируют привычное поведение пользователей, маскируя свои действия под обычные процессы.

Один из ярких кейсов произошел в 2025 году с YouTube. Мошенники создали ИИ-сгенерированное видео с участием генерального директора компании, Нила Мохана, и распространяли его через приватные ссылки, утверждая, что видео содержит важную информацию о политике монетизации. Цель была проста: убедить пользователей предоставить свои учетные данные, выдавая видео за официальное сообщение. YouTube сразу предупредил аудиторию, подчеркнув, что никогда не использует приватные видео для таких объявлений. Этот случай наглядно показал, как ИИ позволяет создавать убедительные фальшивки, которые сложно отличить от реальности.

Юрий Шабалин

Директор по развитию технологий искусственного интеллекта Swordfish Security

Мы разработали таксономию угроз, которые могут быть реализованы с помощью ИИ. В ТОП-3 вошли промпт-инъекции, повреждение или «отравление данных» и раскрытие чувствительной информации моделью ИИ. По риск-скорингу мы находимся даже не в «красной», а в «бордовой» зоне. AI-технологии сегодня везде, даже если они не нужны, практически в любой бизнес их пытаются вставить, и это несет в себе феноменальные риски.

Бизнес даже не понимает, что несет в себе подключение какого-нибудь чат-бота на сайт, который смотрит одним «глазом» интернет, другим в вашу базу данных, и предоставляет практически неограниченные возможности для знающего человека, чтобы получить какую-то внутреннюю информацию.

Deepfake-звонки и синтезированные голоса позволяют обмануть сотрудников и инициировать финансовые переводы или выдачу доступа. Персонализированные фишинговые письма, сгенерированные ИИ, повышают шансы на успех атаки, так как они выглядят естественно и правдоподобно.

В ответ защитники ищут новые подходы: внимание к поведению, корреляция аномалий, многоступенчатая проверка финансовых и критичных действий. ИИ меняет правила игры — и чтобы остаться впереди, командам SOC приходится использовать ИИ не только для защиты, но и для понимания того, как атакуют алгоритмы.

Автоматизация процессов безопасности

ИИ не только помогает обнаруживать угрозы — он все чаще берет на себя часть реакции. Автономные системы реагирования могут изолировать зараженные хосты, блокировать подозрительные процессы и уведомлять SOC еще до того, как человек успеет вмешаться. Это сокращает время реакции с часов и минут до секунд, а значит, атаки успевают причинить меньше ущерба.

Наталья Кверенг

Ведущий консультант по кибербезопасности Infosecurity (ГК Softline)

Внедрение автономных систем реагирования (AIR) несет не только пользу, но и риск чрезмерной автоматизации. Главный принцип безопасного применения — human-over-the-loop: ИИ может инициировать предложение реагирования, но решение остается за человеком. Это не формальность, а способ удержать контроль над системой, поскольку в инцидентах высокого класса ошибки ИИ могут иметь необратимые последствия: от массовой блокировки легитимных сервисов до остановки критических бизнес-процессов.

Для контроля требуется формализовать «границы полномочий» моделей. AIR должен иметь ограниченный радиус действия и не должен самостоятельно выполнять необратимые операции: карантин критических узлов, отзыв учетных записей, вмешательство в продакшн-инфраструктуру. Отдельно требуется концепция «поэтапного выполнения»: симуляция → частичное действие → полная активация. Такой контроль снижает риск ложного детекта и предотвращает эскалацию по ошибке.

Но автоматизация — не панацея. Полностью полагаться на алгоритмы рискованно: они могут ошибаться, блокировать легитимные процессы или пропускать тонкие сигналы. Поэтому ключевой элемент — баланс между ИИ и человеческим надзором.

В итоге современная защита становится симбиозом: ИИ ускоряет и масштабирует процессы, а специалисты добавляют гибкость, здравый смысл и оценку рисков. Такой подход делает SOC более эффективным, устойчивым и готовым к атакам нового поколения.

Будущее ИИ в кибербезопасности

ИИ продолжает трансформировать кибербезопасность, и тенденции ясно показывают, куда движется отрасль. Самообучающиеся SOC, где алгоритмы постоянно анализируют новые данные, выявляют аномалии и корректируют свои модели, становятся реальностью. Прогнозирование атак на основе исторических паттернов и поведенческих моделей позволяет организациям готовиться к угрозам заранее, а не просто реагировать на них.

Игорь Плотников

Руководитель направления Security as a Service, T1 Облако

Для тестирования надежности ИИ-систем применяются методы, имитирующие реальные угрозы и проверяющие внутреннюю логику. Проводится стресс-тестирование — оно включает целенаправленные атаки на модель для оценки ее устойчивости к обману, а также проверку работы при экстремальных нагрузках и аномальных входных данных. Также распространены полноценные пентесты окружения и учения red-team, в ходе которых для имитации действий злоумышленников может использоваться ИИ. Часто эти тесты запускаются в «песочнице» — изолированной среде, где безопасно моделируются реалистичные сценарии атак.

Но с ростом автономности появляется новая проблема — доверие к «черным ящикам» ИИ. Когда система выдает предупреждение или блокирует процесс без понятного объяснения, аналитики могут не понимать, почему принято именно такое решение. Это создает риск ошибочной реакции и затрудняет аудит действий ИИ.

Юрий Чернышов

К.ф.-м.н., доцент УНЦ «Искусственный интеллект» УрФУ, руководитель исследовательского центра UDV Group

Как и в любых других эксплуатируемых системах для ИИ-систем необходимо проводить постоянный поиск и исследование новых возможностей для атак злоумышленников, проводить анализ защищенности всех компонентов системы, включая модели ИИ, в том числе с применением специальных программных средств и методов социальной инженерии.

Будущее кибербезопасности будет строиться на комбинации: умные алгоритмы прогнозируют, выявляют и реагируют, а люди сохраняют контроль, проверяют выводы моделей и корректируют их при необходимости. Чем прозрачнее и объяснимее станут решения ИИ, тем выше будет доверие к ним и эффективность всей системы защиты.

Заключение

ИИ в кибербезопасности — не просто инструмент, а полноценный союзник и одновременно потенциальный противник. Он ускоряет обнаружение угроз, прогнозирует атаки и автоматизирует рутинные задачи, но при этом создает новые риски и требует контроля.

Главное — использовать ИИ осознанно: позволять алгоритмам работать быстро и масштабно, а человеку оставлять за собой принятие критичных решений. Только такой баланс между интеллектом машин и опытом специалистов обеспечивает эффективную и устойчивую защиту.

похожие материалы

Стрелочка
Стрелочка
Вредный миф о безопасном Wi-Fi: как злоумышленники обходят стандартную защиту и проникают в корпоративную сеть
Вредный миф о безопасном Wi-Fi: как злоумышленники обходят стандартную защиту и проникают в корпоративную сеть

Когда речь заходит о кибербезопасности, большинство ИТ-специалистов представляет себе многоуровневую защиту периметра, firewall и системы обнаружения вторжений.