Несомненно, искусственный интеллект — самая революционная, действенная и быстро развивающаяся технология на сегодняшний день. Все, от крупных технологических компаний до обычных потребителей, разрабатывают и экспериментируют с ИИ невероятными способами. Также не секрет, что этот новый мир сопряжен с реальными рисками, к которым необходимо относиться серьезно, поскольку инновации продвигаются вперед. Именно поэтому многие в сфере ИИ ведут разговор об ответственном ИИ и работают над тем, чтобы новый Конгресс и регулирующие органы нашли правильный путь в своих усилиях по надзору за ИИ.
Ответственный ИИ — это термин, который становится все более известным людям, однако большинство из них либо не слышали о нем, либо не задумывались о том, что он на самом деле означает. Фильмы и мемы могут навести вас на мысль, что это означает избежать мрачного будущего «Терминатора» или «Матрицы». Хотя в некотором смысле это может быть правдой, ответственный ИИ гораздо более уместен здесь и сейчас. Проще говоря, ответственный ИИ — это обеспечение точности, прозрачности и эффективного надзора за инструментами и приложениями искусственного интеллекта.
Точная информация, прозрачные процессы и лучшие в своем классе специалисты, контролирующие продукты, имеют первостепенное значение для удовлетворения ожиданий клиентов и являются основой успешного бизнеса.
Недавние достижения в области искусственного интеллекта по праву привлекли внимание американских законодателей и регулирующих органов и станут важным вопросом для решения новоизбранными лидерами. Политики четко осознают необходимость принятия мер в отношении ИИ, хотя многочисленные попытки принятия законодательства, регулирующего частные разработки и использование ИИ на государственном уровне, потерпели неудачу, за исключением Закона штата Колорадо об ИИ.
Соединенные Штаты не одиноки в своем стремлении не торопиться. За пределами ЕС большинство стран придерживаются выжидательного подхода к выявлению конкретных рисков и регулированию на отраслевом уровне, вместо этого сосредоточивая усилия на создании институтов безопасности искусственного интеллекта. В США Конгресс провел более 100 слушаний по этому вопросу, президент Байден подписал множество указов, а федеральные регулирующие органы предложили правила, начали расследования и предприняли другие шаги, чтобы свести к минимуму последствия применения новой технологии. Несмотря на эти усилия, сложность управления ИИ, о чем свидетельствуют такие глобальные инициативы, как Декларация Блетчли, и отсутствие консенсуса в отношении контроля, означают, что финишная черта все еще остается на горизонте.
Эффективный надзор за инновационными технологиями часто может оказаться сложной задачей для правительств. Разрабатывая политику в области ИИ, правительства анализируют практические возможности отрасли, создающей самолеты и одновременно летающей на них. Рынку еще предстоит определить, где и в каких масштабах ИИ имеет смысл использовать для множества целей, в которых он может быть полезен, а может и не быть. Последствия и осознанные риски, связанные с ИИ на рынках, остаются в значительной степени неясными, и чрезмерное вмешательство правительства может значительно ограничить инновации, уменьшая потенциальные выгоды для общества. Мы по-прежнему с оптимизмом смотрим на предстоящее принятие Конгрессом закона об ИИ, но вероятность чрезмерного вмешательства правительства остается. Масштаб предлагаемых федеральными регуляторами правил еще больше подчеркивает риски чрезмерного использования.
Ответственное развитие ИИ — это не только создание и обучение самих моделей ИИ, но и обоснованная политика в отношении строительных блоков ИИ. Основные элементы, такие как качество данных и управление ими, прозрачность, снижение рисков и соблюдение лучших отраслевых практик, которые помогают гарантировать, что конечные продукты отражают элементы ответственного ИИ. Разработчики политики должны сосредоточить свои усилия не только на ИИ как технологии, но и на повышении качества компонентов, лежащих в основе наших наиболее важных инструментов ИИ.
Хорошей новостью является то, что компании уже разрабатывают продукты и инструменты ИИ на платформе ответственного ИИ, которые могут и должны информировать политиков. Как стратегические лидеры наших компаний, мы стремимся демонстрировать эти лучшие практики и отстаивать политику, которая позволит этой технологии процветать ответственным образом. Я лично работал над внедрением системы управления рисками NIST в разработку приложений для искусственного интеллекта в моей компании и стремился поддерживать связь с человеком, чтобы обеспечить качество результатов, получаемых с помощью ИИ.
Ускоряющийся технологический прогресс не может и не будет ждать политиков. Бездействие может повлечь за собой серьезные последствия, равно как и то, что они будут проводить политику, основанную на недостаточной информации, или выходить за рамки жестких политических режимов. Если все сделать правильно, то возникнет дивный новый мир, который обеспечит невообразимые изменения в том, как мы живем сейчас, и в будущем.
Я полон надежд. Я вспоминаю, что несколько лет назад, когда “Всемирная паутина” была в зачаточном состоянии и быстро распространялась на рабочие места, дома и в жизни людей, было опасение, что закон не сможет адаптироваться к этой неизвестной технологии. Но закон действительно развивался, и политики отреагировали на него.
Ставки высоки. Возможности безграничны. И все это возможно, если мы все сделаем правильно.
+ There are no comments
Add yours