Одной из постоянных проблем искусственного интеллекта было и остается выявление и смягчение предвзятости, привнесенной данными, на которых он обучается. Мир уже видел примеры систем, которые несправедливо оценивали вероятность рецидива для афроамериканцев, одобряли женщинам кредитные лимиты ниже, чем мужчинам с аналогичными показателями, и даже генерировали изображения темнокожих нацистов в попытке быть более разнообразными. Теперь эта проблема рискует усугубиться на фоне новой тенденции в США.
В Соединенных Штатах серия судебных и политических решений привела к тому, что корпорации и государственные учреждения сворачивают программы, связанные с разнообразием, равенством и инклюзивностью (DEI). Одновременно с этим усилилось давление с целью ослабить регуляторные ограничения в сфере ИИ. Так, в январе был отменен указ президента Джо Байдена «О безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта», который призывал к снижению предвзятости в системах ИИ. Отмена этого и еще 77 указов была мотивирована их связью с принципами DEI.
Политические сигналы недвусмысленны. Вице-президент США Джей Ди Вэнс, выступая на саммите по ИИ в Париже, заявил, что администрация планирует устранить «чрезмерное регулирование» отрасли и что «американский ИИ должен быть свободен от идеологической предвзятости». Какая степень контроля над предвзятостью будет заложена в новом плане действий в области ИИ, который должен заменить указ Байдена, пока неясно, но атмосфера в стране уже изменилась.
Все началось еще до смены администрации. В июне 2023 года Верховный суд постановил, что расовая принадлежность не может использоваться университетами для диверсификации студенческого состава. Вслед за этим генеральные прокуроры 13 штатов направили компаниям письма с напоминанием о недопустимости дискриминации по расовому признаку «под вывеской „разнообразия, равенства и инклюзивности“ или любой другой». В результате такие гиганты, как Amazon, Google и Meta, свернули или сократили свои DEI-программы. По словам Кристины Блэкен, основателя The New Quo, сама аббревиатура DEI «теперь стала ругательством», и компании боятся любой работы, которая может быть с ней связана.
Некоторые эксперты опасаются, что эта тенденция приведет к потере государственного и корпоративного финансирования исследований, направленных на борьбу с предвзятостью в ИИ. Это не только увековечит социальное неравенство, но и может привести к созданию неточных и неэффективных технологий. «Мы склонны верить, что автоматизированное решение более точное, даже когда это не так, — объясняет Блэкен. — Но если в основе лежат неверные данные, полные стереотипов, система будет ошибаться». По словам Джун Кристиан, бывшего менеджера по инклюзивности в Starbucks, если разработчики не будут целенаправленно работать над справедливостью, предвзятость «неизбежно проникнет в технологию».
Последствия уже ощущаются в научной среде. По данным The New York Times, только Национальный институт здравоохранения США приостановил или отменил около 2500 грантов. Агентство искало в заявках такие ключевые слова, как «трансгендер», «дезинформация» и «равенство», прекращая финансирование проектов, посвященных определенным темам. Лео Энтони Сели, старший научный сотрудник Массачусетского технологического института (MIT), подтверждает: «Многие гранты были заморожены из-за слов „предвзятость“ и „разнообразие“ в названии. Мы сами столкнулись с заморозкой гранта, который обучал медицинскому ИИ студентов из бедных городских районов».
В отсутствие государственного регулирования надежда остается на прагматизм и рыночные силы. Некоторые эксперты полагают, что компании будут вынуждены бороться с предвзятостью из-за конкуренции. «Что измеряется, то и улучшается, — говорит Дэвид Бэнкс, профессор статистики из Университета Дьюка. — Если Claude отстает от GPT-4 в написании кода на Python, его создатели из Anthropic бросают силы на улучшение этого аспекта. Если DALL-E генерирует некорректные изображения, программисты спешат внедрить защитные механизмы. Я думаю, в обозримом будущем „регулирование“ будет исходить от самого рынка».
В конечном счете, борьба с предвзятостью — это не столько вопрос идеологии, сколько вопрос качества. «Если ИИ ошибается в оценке кредитных рисков или квалификации для одной группы людей чаще, чем для другой, это означает, что программа технологически несовершенна, — отмечает Кристофер Слобогин, директор программы уголовного правосудия в Университете Вандербильта. — Разработчики должны это исправлять не из-за заботы о DEI, а потому что их продукт работает плохо».
Эту мысль развивает и Лео Сели из MIT. По его словам, вместо того чтобы говорить о перераспределении благ, что и вызывает основное отторжение, следует сфокусироваться на создании хорошего продукта. «Хороший алгоритм должен быть точным для всех людей, для которых он предназначен. Мы говорим о качественной науке, о создании лучшего продукта с помощью технологий ИИ. Вряд ли кто-то скажет: „Мы этого не хотим“».