Марио Эрнандес Рамос, председатель Комитета по искусственному интеллекту Совета Европы, определяет основные риски, которые ИИ представляет для прав человека, и объясняет, как Совет Европы решает эти проблемы.
Искусственный интеллект (ИИ) в настоящее время является постоянной темой обсуждения во многих сферах общества, будь то в повседневных беседах или на специализированных форумах. Эта технология, обладающая значительным потенциалом для улучшения качества жизни людей, вызвала широкий спектр мнений и дебатов в различных секторах, таких как бизнес, здравоохранение, экономика и право. Однако важно признать, что, как и любое другое использование технологий, искусственный интеллект может нести как пользу, так и потенциальные риски для общества и отдельных лиц. В зрелых обществах регулирование становится основным инструментом ответственного использования этой технологии.
Регулирование искусственного интеллекта вызвало бурные дебаты с начала второго десятилетия XXI века. С избранием президента Дональда Трампа, который разделял позиции видных деятелей бизнеса и технологий, возродилась точка зрения, согласно которой регулирование этой технологии представляет собой значительное препятствие для ее инноваций и развития. Эта точка зрения, хотя и не нова, не была преобладающей на специализированных форумах, где в предыдущие годы обсуждалось регулирование искусственного интеллекта. Даже большинство компаний требовали нормативно-правовой базы, которая установила бы равные условия для инвестирования и инноваций с юридической и деловой определенностью.
Таким образом, дебаты не должны сосредотачиваться на том, следует ли регулировать искусственный интеллект или нет. Фактически, с юридической точки зрения, любая правовая система располагает достаточными инструментами, чтобы дать ответ, если использование системы ИИ причиняет вред человеку. Ни один судья в подобном споре, требующем компенсации за вред, причиненный использованием системы ИИ, не может оставить спор без внимания. Другой вопрос заключается в том, насколько такой ответ является удовлетворительным и какой объем судейского активизма или правотворчества должен проявить судья. Судьи, как органы государственной власти, должны принимать свои решения исключительно на основании закона. Таким образом, граждане могут заранее знать, какие аргументы, скорее всего, будет использовать арбитр их спора, и соответствующим образом адаптировать свое поведение. Это также означает, что предотвращается произвольное и злонамеренное поведение. Это требование относится не только к судьям, но и ко всем органам государственной власти в любой демократической системе, воплощенное в правовых принципах, составляющих верховенство права.
Без конкретных правил поведение и решения людей будут лишены системы отсчета, а реакция власти будет непредсказуемой. Таким образом, подходящие и конкретные правила обеспечивают определенность для всех заинтересованных сторон, включая компании, для защиты их прав и интересов, а также для противодействия произволу, злоупотреблению властью и несправедливости.
Поэтому дебаты должны быть сосредоточены на других типах вопросов, обеспечивающих строгость и сложность, которых заслуживает эта проблема, избегая, таким образом, манихейских и упрощенных постулатов. Во-первых, что должно быть объектом регулирования? Во-вторых, как это должно регулироваться? В-третьих, кто должен это регулировать? Наконец, с какой точки зрения? Например, какие этические и/или правовые принципы должны лежать в основе такого регулирования, учитывая, что эти принципы будут решающим образом определять его цель и адресатов.
В зависимости от ответов на эти вопросы можно наблюдать большое разнообразие нормативных актов в области искусственного интеллекта по всему миру.
До недавнего времени преобладали кодексы поведения или внутренние правила, созданные компаниями или технологическими компаниями, для которых было характерно то, что их соблюдение было полностью добровольным, и которые включали очень общие этические принципы без особого конкретного содержания. Гибкость, предлагаемая этими руководящими инструментами, контрастировала с отсутствием четкого определения ответов, которые они могли бы предложить на конкретные проблемы, а также с добровольным характером их соблюдения, даже если их полезность не вызывает сомнений, но без окончательных результатов.
Интернет стал технологической революцией, которая вызвала серьезные трансграничные проблемы. Национальные нормативные акты оказались совершенно неэффективными для обеспечения удовлетворительного ответа, поэтому координация подходов и усилий нескольких стран стала необходимой, что привело к международному сотрудничеству и соглашениям.
Этот сценарий вдохновляет Совет Европы на действия по решению многочисленных проблем, которые ставит искусственный интеллект, и в которых он сосредотачивает свой интерес: защита и поощрение прав человека, демократическое функционирование и принципы верховенства права. Существуют различные институты (такие как Парламентская ассамблея или Комиссар по правам человека, среди прочих) или отраслевые комитеты (такие как Руководящий комитет по правам человека или, в первую очередь, Европейская комиссия по эффективности правосудия (CEPEJ)), которые разработали и продолжают работать над составлением рекомендаций и различных необязательных к исполнению нормативных актов по использованию ИИ.
Но прежде всего выделяется создание Комитета по искусственному интеллекту (CAI) в декабре 2019 года. В его состав входят 46 государств-членов Совета Европы, Европейский союз и 11 государств, не являющихся членами (Аргентина, Австралия, Канада, Коста-Рика, Святой Престол, Израиль, Япония, Мексика, Перу, Соединенные Штаты Америки и Уругвай), а также 68 представителей частного сектора, гражданского общества и научных кругов, которые участвовали в качестве наблюдателей.
В течение пяти лет работы, дебатов и переговоров было сочтено, что технологический уровень развития искусственного интеллекта и риски ИИ для прав человека, демократии и верховенства права требуют юридически обязывающего нормативного ответа; с международной точки зрения, то есть с интеграцией максимального числа культур, перспектив и правовых традиций (что является одним из основных отличий по сравнению с Законом ЕС об ИИ); регулирование только тех видов использования, которые влекут за собой значительный риск или воздействие; всегда с точки зрения, поощряющей технологическое развитие, которое благоприятствует и продвигает людей, их достоинство и индивидуальную автономию, короче говоря, человеко-ориентированный искусственный интеллект; и чьими адресатами являются как государственный, так и частный сектор, но в отношении последнего признается большая степень гибкости в отношении средств регулирования, которые могут принимать форму законодательных, административных или иных мер.
Эти пять лет завершились разработкой и принятием первого юридически обязывающего международного договора об искусственном интеллекте и правах человека, демократии и верховенстве права.
Рамочная конвенция Совета Европы об искусственном интеллекте, правах человека, демократии и верховенстве права была принята 17 мая 2024 года Комитетом министров Совета Европы в Страсбурге и открыта для подписания по случаю Конференции министров юстиции в Вильнюсе (Литва) 5 сентября 2024 года. На сегодняшний день Рамочную конвенцию подписали Андорра, Канада, Грузия, Исландия, Япония, Норвегия, Республика Молдова, Сан-Марино, Черногория, Великобритания, Израиль, Соединенные Штаты Америки и Европейский союз (также от имени своих 27 государств-членов).
Она направлена на обеспечение того, чтобы деятельность в рамках жизненного цикла систем искусственного интеллекта полностью соответствовала правам человека, демократии и верховенству права, способствуя при этом технологическому прогрессу и инновациям. Кроме того, она направлена на дополнение существующих международных стандартов в области прав человека, демократии и верховенства права, заполняя правовые пробелы, которые могут возникнуть в результате быстрого технологического развития. Чтобы выдержать испытание временем, Рамочная конвенция не регулирует технологии и, по сути, является технологически нейтральной.
Рамочная конвенция содержит общие принципы и требования, которые должны быть разработаны на национальном уровне подписавшими сторонами.
Деятельность в рамках жизненного цикла систем ИИ должна соответствовать нескольким основополагающим принципам, таким как человеческое достоинство и индивидуальная автономия; равенство и недискриминация; уважение частной жизни и защита персональных данных; прозрачность и надзор; подотчетность и ответственность; надежность и безопасные инновации. Кроме того, они должны обеспечивать процессуальные гарантии и средства правовой защиты, такие как документирование соответствующей информации о системах ИИ и их использовании и предоставление ее заинтересованным лицам, обеспечение эффективной возможности подачи жалобы в компетентные органы, предоставление процессуальных гарантий, гарантий и эффективных прав заинтересованным лицам в отношении применения системы искусственного интеллекта в тех случаях, когда система искусственного интеллекта существенно ущемляет осуществление прав человека и основных свобод, и предоставление уведомления о том, что человек взаимодействует с системой искусственного интеллекта, а не с человеком.
Для контроля за выполнением Рамочной конвенции создается механизм последующих действий — Конференция Сторон, состоящая из официальных представителей Сторон Конвенции, которая определяет степень выполнения ее положений. Ее выводы и рекомендации помогают обеспечить соблюдение государствами Рамочной конвенции и гарантировать ее долгосрочную эффективность.
Конференция Сторон также будет способствовать сотрудничеству с заинтересованными сторонами, в том числе посредством общественных слушаний по соответствующим аспектам выполнения Рамочной конвенции.
Учитывая, что регулированию подлежат только те виды использования, которые представляют риск для прав человека, демократии и верховенства права, необходим инструмент для измерения такого риска и потенциального воздействия. Чтобы удовлетворить эту потребность, Комитет по искусственному интеллекту разработал специальную методологию: Оценка риска и воздействия систем искусственного интеллекта с точки зрения прав человека, демократии и верховенства права (HUDERIA). Эта методология была принята Комитетом по искусственному интеллекту (CAI) Совета Европы 28 ноября 2024 года и будет дополнена моделью, которая ее развивает, и которая составляет работу CAI до конца его мандата в декабре 2025 года.
Методология HUDERIA представляет собой руководство, которое обеспечивает структурированный подход к оценке риска и воздействия систем ИИ, специально предназначенный для защиты и поощрения прав человека, демократии и верховенства права. Она предназначена для использования государственными и частными субъектами и призвана играть уникальную и решающую роль на стыке международных стандартов в области прав человека и существующих технических рамок по управлению рисками в контексте ИИ. HUDERIA является самостоятельным, юридически необязательным руководящим документом. Таким образом, Стороны Рамочной конвенции имеют возможность использовать или адаптировать ее, полностью или частично, для разработки новых или усовершенствования существующих подходов к оценке рисков в соответствии с применимым законодательством.
HUDERIA состоит из четырех элементов. Первый — это контекстно-зависимый анализ рисков (COBRA), который выявляет ключевые факторы риска, повышающие вероятность неблагоприятного воздействия на права человека, демократию и верховенство права, позволяя выявлять и приоритизировать системы со значительными рисками. Второй — это процесс взаимодействия с заинтересованными сторонами (SEP), который расширяет оценку риска и воздействия за счет включения точек зрения потенциально затрагиваемых лиц, выявленных на этапе COBRA. Третий — это оценка риска и воздействия (RIA), которая обеспечивает подробную оценку потенциальных и фактических последствий деятельности системы ИИ для прав человека, демократии и верховенства права, с особым акцентом на системы, представляющие значительные риски, выявленные во время сортировки COBRA. Четвертый и последний — это план смягчения последствий, который обрабатывает действия и стратегии по устранению неблагоприятных последствий и смягчению выявленных вредных факторов. Он включает в себя формулирование конкретных мер в зависимости от серьезности и вероятности этих вредных факторов и разработку комплексного плана по их реализации, включая доступ к решениям.
Результаты работы CAI, в частности Рамочная конвенция и HUDERIA, предлагают ответ на риск, который ИИ представляет для прав человека, демократии и верховенства права, определяя и создавая общие международные стандарты для решения глобальных проблем. Это, несомненно, хорошая новость для всех нас, кто считает человеческие ценности первостепенными.