Управление ИИ: бизнес опережает регуляторов в борьбе с рисками

FeatureInside the AI Accountability Gap: Why Enterprises Are Building Their Own Rules

Компании активно развивают инициативы в области искусственного интеллекта, одновременно совершенствуя подходы к управлению им. Это вызвано опасениями по поводу подотчетности и риском введения государственного регулирования, если саморегулирование отрасли окажется недостаточным.

Проблема заключается в том, что системы искусственного интеллекта часто критикуют за их непрозрачность, сравнивая с «черным ящиком». Пользователи не всегда могут полностью объяснить или интерпретировать, как ИИ приходит к тому или иному выводу. По мнению экспертов Carnegie Council, если процесс принятия решений ИИ нельзя объяснить или понять, становится крайне сложно возложить ответственность на конкретные стороны за возможный вред.

Возникает кризис подотчетности при внедрении ИИ. По мнению Center for American Progress, необходима сильная система подотчетности в сфере ИИ, которая позволит правительству США создавать и применять новые правила. Речь идет о возможности определять случаи и сектора высокого риска, требующие предварительного государственного рассмотрения перед развертыванием ИИ, предотвращать угрозы национальной безопасности, прямо запрещать определенные опасные применения и устанавливать общие принципы для обеспечения безопасности, эффективности систем и предотвращения алгоритмической дискриминации.

Искусственный интеллект, особенно генеративный ИИ, может создавать новые риски и усугублять существующие, как отмечается в отчете Forrester. Опасения бизнеса и общества по поводу предвзятых решений, нарушения прав работников, конфиденциальности, безопасности, утечки интеллектуальной собственности и нарушения авторских прав привлекают все больше внимания законодателей и юристов.

Тем не менее, по данным аналитика Gartner Лорен Корнутик, лишь 45% организаций сообщают о достижении высокого уровня зрелости в управлении ИИ, который предполагает согласование политики в области ИИ с операционной моделью управления. Эта информация была получена в ходе опроса компании «AI Mandates for the Enterprise».

Лорен Корнутик говорит, что создание надежных основ для ИИ имеет важное значение для предприятий, чтобы эффективно управлять рисками, связанными с технологиями ИИ, и демонстрировать надлежащий управленческий надзор. Для этого организациям необходимо опираться на принципы ответственного ИИ. Нельзя полагаться исключительно на нормативные акты для регулирования использования ИИ, поскольку глобальные стандарты ответственного использования технологий могут сильно различаться и даже противоречить друг другу в разных юрисдикциях.

В условиях отсутствия единого законодательства или при наличии расходящихся нормативных режимов разработка и соблюдение собственных принципов ответственного использования технологий обеспечивают целенаправленность и, как следствие, более быстрое технологическое развитие, считает Корнутик.

Например, Министерство здравоохранения и социальных служб США (HHS) утвердило правило для Health IT, предусматривающее прозрачность алгоритмов путем создания отраслевых стандартов для оценки справедливости, уместности, достоверности, эффективности и безопасности.

Другой пример – в январе 2024 года Департамент финансовых услуг штата Нью-Йорк (NYDFS) выпустил проект руководства по использованию ИИ, фактически устанавливающий требования для страховщиков, работающих в Нью-Йорке. В отчете Forrester указывается, что это руководство идет даже дальше федеральных предложений и определяет требования к качественной и количественной оценке рисков, роли руководителей и советов директоров, а также уровни управления, соответствующие аппетиту организации к риску.

Компаниям рекомендуется внимательно следить за появлением аналогичных требований в их отраслях, а также за теми, которые влияют на клиентов и сторонних партнеров. Основная сложность заключается в том, как ориентироваться в принятии и применении существующих законов и готовиться к новым законам об ИИ, справляясь при этом с нормативной неопределенностью.

Программы управления ИИ должны контролировать соблюдение принципов, которые соответствуют практикам управления компании в других областях, отмечает Корнутик. Gartner предлагает трехмерный подход к контролю ИИ, охватывающий риск, ценность и сложность принятия решений. Чрезмерное внимание к одному измерению приведет к недооценке риска или избыточной коррекции за счет способности предприятия развивать возможности ИИ и грамотность для долгосрочного успеха.

Управление ИИ должно быть отдельной инициативой, но может использовать существующие операционные модели управления, такие как управление ИТ или данными. Для ИИ следует начать с разработки специфических политик и механизмов контроля.

Корнутик рекомендует предприятиям включить в свои программы управления следующие элементы: определить наличие специфических для ИИ политик и механизмов контроля и их связь с установленными организационными структурами; создать центральный репозиторий всех случаев использования ИИ и присвоить им оценки риска для определения приоритетов мониторинга; разработать и внедрить этические рамки, процедуры и процессы для ИИ; постоянно следовать этическим процедурам ИИ, создав процесс для обсуждения этических дилемм в каждом конкретном случае; требовать от поставщиков с компонентами ИИ проверяемые подтверждения ожидаемого поведения ИИ и постоянно отслеживать происхождение данных от поставщиков; непрерывно контролировать системы ИИ, агентов и сценарии использования с высоким риском, а также периодически проверять все остальные системы ИИ, агентов и сценарии использования; единообразно применять требования программы конфиденциальности ко всей деятельности, связанной с ИИ; рассмотреть возможность развертывания технологических систем AI TRiSM (управление доверием, рисками и безопасностью ИИ), таких как системы, способные проводить проверку и контроль в реальном времени для систем высокого риска.

Надежные основы для ИИ эффективны лишь настолько, насколько организации их придерживаются, говорит Корнутик. Организациям необходимо последовательно обеспечивать соблюдение политики допустимого использования ИИ при нарушениях и стимулировать ответственное использование ИИ.

 

Новый ИИ предсказывает суицидальный риск по медкарте пациента

ИИ и энергия: рост спроса дата-центров против новой эффективности

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *