Этический компас для ИИ: как бизнесу не сбиться с верного курса



Вне зависимости от того, использует ли ваша компания искусственный интеллект в качестве стратегического партнера, административного помощника или вовсе обходится без него, вам необходима внутренняя политика, регулирующая его приемлемое и ответственное применение. Без четких ориентиров сотрудники начнут использовать мощные технологии по своему усмотрению, что может погрузить бизнес в «мутные этические и правовые воды», особенно если ИИ задействован в рабочих процессах, принятии решений и поддержке клиентов.

Прежде чем ваша команда начнет самостоятельно принимать решения об использовании ИИ, крайне важно разработать этическую политику, которая определит, как следует и как не следует его применять. «Когда вы имеете дело с конфиденциальными данными или нормативными требованиями, вы не можете позволить себе реагировать постфактум, — утверждает Чинтан Мота, консультант из Rising/Wipro. — Вам нужны „ограждения“ еще до того, как вы развернете свое первое продуктивное приложение на базе ИИ».

Первым шагом к разработке такой политики является создание специальной рабочей группы. Подход «сверху вниз» здесь не сработает. Как отмечает Пиянка Джейн, президент и генеральный директор консалтинговой компании Aryng, «помимо высшего руководства, неотъемлемой частью разработки политики должны стать сотрудники, которые работают „на земле“, поскольку именно они первыми замечают злоупотребления ИИ». Их можно рассматривать как нетехнических стражей этики. Международный центр для журналистов (ICFJ), столкнувшись с разногласиями по поводу ChatGPT, создал именно такую многоуровневую рабочую группу, чтобы выработать единый стандарт для всей организации.

В состав такой команды должны входить не только специалисты по данным. «Подключите отделы кадров, юристов, маркетологов, экспертов по разнообразию и инклюзивности, а также профильных специалистов. Этика — это не просто техническая проблема, она затрагивает компанию на организационном уровне», — соглашается Мота. Необходимо учесть юридические аспекты, вопросы предвзятости, авторского права и общественных отношений, а также понять настроения внутри коллектива, чтобы заручиться поддержкой сотрудников.

Рабочая группа должна начать с определения того, что именно означает «этика» для вашей компании, ее корпоративной культуры и клиентов. «Политика в области ИИ должна отражать общие принципы компании, такие как справедливость, прозрачность и подотчетность», — говорит Мота. Это определение необходимо связать с тем, как ИИ разрабатывается, оценивается и внедряется. Особое внимание следует уделить конфиденциальности данных клиентов. «Данные используются для разработки и тонкой настройки ИИ-приложений. То, как данные определяются и маркируются, напрямую влияет на системы ИИ», — объясняет Цзяси Чжо, руководитель отдела аналитики в Google.

Новости полны примеров, когда ИИ совершал ошибки, которые приводили к серьезным проблемам для компаний. При разработке политики необходимо тщательно проанализировать потенциальные риски: от предвзятости в принятии решений, например, в здравоохранении или при найме персонала, до утечки данных. «Не все приложения ИИ несут одинаковый уровень риска, — подчеркивает Чжо. — Модель, используемая для прогнозирования, имеет совершенно иной уровень риска по сравнению с моделью, которая поддерживает персонализацию для клиентов». Именно для выявления таких «слепых зон» и нужна разносторонняя команда.

Создать продуманную этическую политику и просто сохранить ее в общем доступе — недостаточно. «Политика не будет работать, если это просто PDF-файл в папке SharePoint», — предупреждает Мота. Ключевую роль играет обучение. Алекс Смит, менеджер компании Render3DQuick, рассказывает, что после завершения разработки политики они организовали тренинги на примерах реальных проектов, чтобы показать сотрудникам, где начинается их ответственность и какие проверки они должны выполнять.

Принципы этики должны распространяться и за пределы компании. «Если вы используете сторонние большие языковые модели или платформы, ваша этическая политика должна применяться и к ним. Настаивайте на прозрачности в отношении обучающих данных и ограничений в использовании», — советует Мота. Клиенты также должны знать, как и когда вы используете ИИ. Прозрачность в этих вопросах помогает укрепить доверие.

Создание политики для такой преобразующей технологии, как ИИ, — масштабный проект, но откладывать его нельзя. «Не ждите, пока все станет идеальным, — говорит Мота. — Сфера ИИ развивается стремительно. Ваши правила могут и должны развиваться вместе с ней. Начните с простого, с наименее рискованных вариантов, и быстро вносите изменения». При этом внедрять политику следует с той же тщательностью, с какой вы бы запускали новый продукт. Как заключает Раджив Капур, автор книги «ИИ простыми словами»: «Объясните, почему это важно, как это работает и что это защищает». Это не просто анонс, а образовательная миссия, которая требует создания каналов для обратной связи, чтобы сотрудники и клиенты могли сообщать об этических проблемах и помогать совершенствовать ваш подход к искусственному интеллекту.

ИИ разоблачает «великого притворщика»: прорыв в диагностике сердца

Иллюзия в Instagram: звезда крикета попался на лайках для ИИ-модели

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *