Безопасность ИИ: как бизнесу справиться с новыми угрозами

Бизнес-лидеры должны уделять первостепенное внимание созданию устойчивых систем безопасности для искусственного интеллекта, обеспечивая защиту как от традиционных кибератак, так и от специфических угроз, связанных с ИИ, таких как отравление данных. Тем не менее, государственное регулирование остается ключевым фактором для установления стандартизированных рамок безопасности ИИ, утверждает Даррен Томсон, технический директор Commvault в регионе EMEAI.

Глобальная гонка в области ИИ достигла новых высот после объявления правительства США о запуске инициативы стоимостью 500 миллиардов долларов, включая масштабный проект Stargate, реализуемый в партнерстве с OpenAI, Oracle и Softbank. Это событие, наряду с недавним Планом действий по ИИ в Великобритании, знаменует переломный момент в международной сфере искусственного интеллекта. Однако на фоне амбициозных планов роста наблюдается тревожный разрыв между этими инициативами и необходимыми регуляторными рамками, которые обеспечивали бы безопасное и устойчивое развитие ИИ.

Текущие различия в подходах к регулированию становятся все более очевидными. В то время как Европейский Союз активно продвигает всеобъемлющий Акт об ИИ, Великобритания придерживается более мягкого подхода к управлению искусственным интеллектом. Эта регуляторная разрозненность, усугубленная недавним отказом правительства США от ключевых требований безопасности ИИ, создает сложную среду для организаций, внедряющих системы ИИ в условиях глобализации.

Британские компании сталкиваются с уникальной проблемой: внедрять решения на основе ИИ в глобальном масштабе без четких внутренних рамок регулирования. Хотя План действий по ИИ правительства Великобритании демонстрирует амбиции в области роста, существует риск, что недостаточный регуляторный контроль может оставить организации уязвимыми перед новыми киберугрозами, что подрывает доверие общественности к системам ИИ.

План создания Национальной библиотеки данных, которая должна способствовать развитию ИИ за счет предоставления высокоэффективных общедоступных данных, вызывает свои опасения: как будут формироваться наборы данных? Кто будет отвечать за их защиту? Как можно гарантировать целостность данных на протяжении многих лет, если они станут частью множества моделей ИИ, используемых в общественной, корпоративной и частной жизни?

В отличие от этого, ЕС активно продвигает свой Акт об ИИ, который представляет собой всеобъемлющую, юридически обязательную рамку, ставящую во главу угла регулирование, прозрачность и предотвращение вреда. В документе четко прописаны обязательства по безопасной разработке и внедрению ИИ, включая обязательные оценки рисков и значительные штрафы за несоблюдение.

Продолжающаяся регуляторная разрозненность создает сложную среду для компаний, занимающихся разработкой и внедрением решений в области безопасности ИИ. Различия в подходах формируют неравные условия и, возможно, более опасное будущее, связанное с использованием ИИ. Компании должны найти баланс между инновациями и управлением рисками, внедряя надежные протоколы кибербезопасности, адаптированные к новым требованиям, вызванным развитием ИИ, особенно в контексте отравления данных и цепочек поставок данных.

Отравление данных — это метод, при котором злоумышленники намеренно манипулируют обучающими данными, чтобы изменить результаты работы моделей ИИ. Это могут быть едва заметные изменения, вызывающие ошибки и некорректные ответы, или внедрение вредоносного кода, позволяющего злоумышленникам «спрятаться» внутри модели и контролировать ее работу. Такие вмешательства трудно обнаружить, и они могут постепенно поставить организацию под угрозу, способствуя принятию ошибочных решений и даже краху. В политическом контексте это может усилить предубеждения и спровоцировать негативное поведение.

Создание Национальной библиотеки данных подчеркивает риски заражения моделей ИИ, которые затем могут быстро распространяться по всей цепочке поставок. В ближайшие годы многие организации будут полагаться на эти модели ИИ в своей повседневной деятельности, поэтому любое заражение может иметь катастрофические последствия. Уже сейчас киберпреступники используют ИИ для усиления своих атак, и перспектива заражения ИИ в цепочке поставок вызывает серьезные опасения.

Руководителям компаний необходимо разработать надежные меры защиты, обеспечивающие устойчивость всей цепочки поставок, включая проверенные планы восстановления после сбоев. На практике это означает приоритизацию критически важных приложений, определение минимально жизнеспособного бизнеса и установление приемлемого уровня риска. Это позволит компаниям быть уверенными в том, что в случае атаки ключевые резервные копии могут быть быстро восстановлены.

Очевидно, что ИИ обладает потенциалом для ускорения инноваций, но одновременно открывает двери для новых угроз, особенно в области безопасности, конфиденциальности и этики. По мере интеграции ИИ в инфраструктуру компаний вероятность злонамеренных нарушений будет значительно возрастать. Лучший способ снижения рисков — поддерживать надежные меры защиты, обеспечивать прозрачность разработки и придерживаться этических принципов. Балансируя между инновациями и нулевой терпимостью к злоупотреблениям, организации могут использовать преимущества ИИ, защищаясь от коррупции. Однако в конечном итоге только законодательные меры, принимаемые на государственном уровне, могут помочь установить глобальные стандарты безопасности ИИ.

 

ИИ для космоса: как Space HPC ускоряет исследования и разработки

ИИ в бизнесе: успех требует партнерства человека и машины

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *