Подавляющее большинство специалистов по кибербезопасности признают свою неготовность защищать корпоративные системы от кибератак, усиленных возможностями искусственного интеллекта. Это тревожный сигнал для всего IT-сообщества. Исследование Глобального альянса по кибербезопасности показывает, что почти три четверти (74%) руководителей IT-безопасности уже ощущают атаки с применением ИИ, а 89% уверены, что к 2026 году такие угрозы станут серьезной проблемой.
Стремительное развитие технологий ставит перед кибербезопасностью все новые вызовы. Возникают вопросы: почему ИИ-угрозы застали так много компаний врасплох, что мешает им подготовиться, каковы будут последствия бездействия и как можно быстро наладить эффективную защиту?
Крис Джексон, директор по инжинирингу и операциям безопасности в BOK Financial, поясняет, что традиционно киберугрозы делились на две основные категории. Это были либо широкие автоматизированные атаки типа «ковровой бомбардировки», использующие общеизвестные уязвимости без разбора, либо узконаправленные атаки, обычно проводимые развитыми группировками (известными как APT-атаки) или государственными структурами. По его словам, генеративный ИИ создает новый класс угроз, сочетающий автоматизацию с адаптивностью. В отличие от прежних автоматизированных атак, ИИ-угрозы способны обучаться на защитных мерах, находить новые уязвимости и имитировать легитимное поведение, причем с гораздо меньшими затратами сил и средств.
Большинство команд безопасности привыкли работать с традиционными атаками, имея готовые системы и сценарии реагирования для их распознавания. Однако атаки, проводимые с помощью ИИ, гораздо сложнее обнаружить существующими методами. Крис Джексон приводит пример, что ИИ может создавать персонализированные фишинговые письма или динамически адаптировать вредоносное ПО для обхода систем обнаружения, основанных на сигнатурах. Это позволяет даже менее квалифицированным злоумышленникам проводить сложные и масштабные кампании. Именно это сочетание доступности и эволюции отличает угрозы, управляемые ИИ, от традиционных проблем кибербезопасности.
Опасность и быстрое распространение таких атак объясняются тем, что ИИ дает мощные инструменты злоумышленникам, ранее не обладавшим необходимыми хакерскими навыками для совершения сложных киберпреступлений. Кит Палумбо, генеральный директор и соучредитель Auguria, отмечает, что одна из величайших опасностей генеративного ИИ заключается в его способности масштабно расширять возможности злоумышленников без технических знаний. Киберпреступники, не имеющие глубоких навыков, теперь могут использовать ИИ для организации высокоуровневых мошенничеств и атак, превосходящих их собственные способности, включая продвинутые фишинговые кампании, вредоносное ПО на базе ИИ и все более сложные атаки с использованием программ-вымогателей.
Несмотря на то, что ИИ-атаки могут создаваться людьми с меньшей квалификацией, они настолько изощренны, что их трудно обнаружить традиционными методами. Сет Гефтик, вице-президент по продуктовому маркетингу в Huntress, объясняет, что способность искусственного интеллекта быстро собирать, обрабатывать и использовать данные придает создаваемым им киберугрозам высокую степень гибкости. Если традиционная вредоносная программа может иметь фиксированную сигнатуру, то угроза, созданная ИИ, способна меняться и адаптироваться, используя разные паттерны, что значительно усложняет ее обнаружение.
Ситуация, вероятно, будет усугубляться по мере того, как все больше преступников осваивают возможности ИИ. Кит Палумбо прогнозирует, что в обозримом будущем преступники продолжат использовать ИИ, находя новые способы доступа к корпоративной информации и ее кражи, а организации будут вынуждены искать новые инструменты для предотвращения этих атак.
Сет Гефтик указывает, что реальная причина трудностей, с которыми сталкиваются команды безопасности, заключается в масштабе проблемы. Дело не в отсутствии у организаций технологий для защиты, а в том, что новый масштаб угроз, порождаемый ИИ, создает невиданный ранее уровень давления на защитные системы. Многие компании оказались застигнуты врасплох, не имея времени или бюджета на переобучение персонала и перестройку стратегий защиты под новый тип атак.
Ситуацию усугубляет постоянная и значительная нехватка квалифицированных специалистов по кибербезопасности, особенно тех, кто способен защищать системы от ИИ-угроз. Акаш Махаджан, основатель и генеральный директор Kloudle, добавляет, что разработка и внедрение решений безопасности на базе ИИ могут быть дорогостоящими, поэтому многие организации сталкиваются с нехваткой ресурсов для полноценной подготовки к таким киберугрозам.
Противодействие этим угрозам требует нового подхода к безопасности. Крис Джексон утверждает, что организациям необходимо переходить от традиционных защитных мер, основанных на сигнатурах, к поведенческим подходам. Он поясняет, что инструменты на основе сигнатур распознают известные паттерны атак, но угрозы, управляемые ИИ, развиваются слишком быстро, чтобы эти методы оставались эффективными. Поведенческие защитные системы, использующие машинное обучение и ИИ, обнаруживают аномалии в активности пользователей или систем, например, необычные попытки входа в систему. Однако их внедрение требует новых технологий, экспертизы и процессов, которых не хватает многим организациям. Быстрое развитие ИИ опережает возможности большинства команд безопасности по обновлению инфраструктуры и обучению персонала, оставляя уязвимости, которыми могут воспользоваться злоумышленники.
Технические последствия неспособности защититься от этой растущей угрозы весьма значительны. Крис Джексон предупреждает, что отсутствие подготовки делает организации уязвимыми для более частых и эффективных атак, что приводит к серьезным последствиям, таким как утечки данных, сбои в обслуживании и финансовые потери. Снижение стоимости и сложности атак с использованием ИИ понижает порог входа для киберпреступников, вызывая рост как числа злоумышленников, так и эффективности их методов. Он добавляет, что теперь даже незначительные уязвимости, такие как небольшие ошибки в конфигурации, которые ранее могли игнорироваться, могут быть использованы в больших масштабах. В контексте финансовых услуг это может означать кражу данных клиентов, штрафы регуляторов, простои в работе и потерю доверия, что усугубляет как немедленный, так и долгосрочный ущерб.
История показывает, что потеря клиентских данных обходится компаниям дороже денег. Клиенты теряют веру в бизнес и становятся более осторожными в выборе мест для покупок, банковских операций и хранения информации. Утраченное доверие очень трудно восстановить.
Однако искусственный интеллект может служить не только оружием злоумышленников, но и инструментом защиты. Кит Палумбо считает, что при продуманном подходе к ИИ защитники могут значительно усилить свои возможности. Уже существуют примеры того, как применение ИИ сокращает время, необходимое командам безопасности для локализации взлома. Защитники должны искать все способы уменьшить преимущество атакующих, включая использование ИИ-агентов, систем обнаружения и устранения угроз на базе ИИ, а также других передовых оборонительных технологий.
Инструменты на базе ИИ могут противостоять угрозам, созданным с помощью того же ИИ, используя поведенческую аналитику и автоматизированный поиск угроз для обнаружения аномалий и реагирования на них в реальном времени. Но для управления такими системами защиты потребуются квалифицированные специалисты, что означает необходимость обучения сотрудников служб безопасности и других работников компании. Крис Джексон рекомендует обучать персонал распознаванию угроз, сгенерированных ИИ, таких как социальная инженерия с использованием дипфейков или изощренные фишинговые атаки.
Кит Палумбо предполагает, что в будущем центр мониторинга кибербезопасности (SOC) станет гибридной структурой, где аналитики-люди будут работать в команде с ИИ, чтобы противостоять аналогичным парам атакующих.