Представим студентку, назовем ее Мария, которая преодолевает трудности на пути к высшему образованию. Будучи первой в своей семье, кто поступает в университет, она совмещает учебу с работой на полную ставку и полагается на ресурсы вуза, чтобы не сбиться с пути. Однажды Мария подает заявку на стипендию за заслуги, но система на базе искусственного интеллекта помечает ее как «высокорискового» кандидата на основе исторических данных о студентах со схожим прошлым. Несмотря на ее высокую академическую успеваемость, алгоритм системы определяет, что она вряд ли добьется успеха, ограничивая ей доступ к финансовым ресурсам.
Мария сталкивается с последствиями неустраненной предвзятости в системах ИИ — реальностью, которая выходит за рамки искаженных данных. Если оставить это без контроля, предвзятость ИИ ограничивает доступ к возможностям, лишая людей способности полноценно участвовать как в экономике, так и в жизни общества.
Искусственный интеллект трансформирует наши возможности так, как мы могли только воображать десять лет назад. Сегодня учебные заведения имеют доступ к адаптивному обучению, автоматизированным административным процессам и инструментам на базе ИИ, которые оптимизируют рабочие процессы, улучшают поддержку студентов и повышают вовлеченность преподавателей. Возможность использовать эти системы для предоставления персонализированного обучения и круглосуточной помощи студентам представляет собой значительный скачок вперед, решая некоторые из самых насущных операционных проблем в высшем образовании.
Однако, как и многие крупные технологические достижения, ИИ несет с собой непреднамеренные последствия. Подобно тому, как прошлые инновации порождали непредвиденные проблемы в нашей жизни и работе, распространение ИИ в высшем образовании поднимает множество нерешенных вопросов и серьезных этических проблем, особенно в отношении предвзятости и справедливости. Предвзятость ИИ — это не абстрактная проблема, она напрямую влияет на студентов и их образовательные результаты.
Когда эти предубеждения усиливают существующее неравенство, они создают неэффективность для самого учебного заведения и усугубляют несправедливость для других. Вот почему вузы не могут позволить себе игнорировать роль предвзятости в принятии решений на основе ИИ. Высшее образование является средством социальной мобильности, и если мы хотим, чтобы ИИ служил этой цели, нам необходимо целенаправленно подходить к тому, как мы разрабатываем, обучаем, внедряем и контролируем эти технологии.
В недавнем исследовании, проведенном совместно с доктором Джеймсом Хатсоном, рассматриваются эти проблемы и предлагаются конкретные стратегии для обеспечения того, чтобы ИИ способствовал равенству, а не усугублял существующее неравенство.
Системы ИИ справедливы ровно настолько, насколько справедливы данные, на которых они обучаются, однако многие модели все еще полагаются на устаревшие наборы данных, которые закрепляют предвзятость и неравенство. Например, система ИИ, обученная на институциональных данных 2000 года, когда белые студенты составляли 70,8% бакалавров, будет генерировать прогнозы, сформированные этой демографической реальностью. Сегодняшний студенческий состав значительно более разнообразен: латиноамериканцы составляют 20,3%, афроамериканцы — 14%, а женщины — 58% студентов бакалавриата. Неспособность отразить эти изменения рискует исказить представление о маргинализированных группах и усугубить системное неравенство.
Предвзятость в ИИ искажает процесс принятия решений в учебных заведениях, влияя на оценку рисков, академические оценки и практику найма. Предиктивные модели могут непропорционально часто классифицировать студентов из маргинализированных групп как находящихся в «группе риска», основываясь на устаревших показателях отсева и стандартизированных тестах, не учитывая системные барьеры, такие как финансовая нестабильность и неравный доступ к академической поддержке. Автоматизированные инструменты оценки знаний, предназначенные для помощи студентам, часто обучаются на западных нормах письма, ставя в невыгодное положение тех, кто имеет разнообразный лингвистический бэкграунд. Аналогичным образом, системы найма на базе ИИ, обученные на исторических данных о кандидатах, как правило, отдают предпочтение представителям доминирующих демографических групп, еще больше укореняя эксклюзию вместо продвижения разнообразия.
Решение этих проблем — это не просто техническая задача, это этическая ответственность. Высшие учебные заведения, стремящиеся к равенству, должны гарантировать, что ИИ служит всем студентам справедливо. Отмахиваться от опасений по поводу предвзятости как от сопротивления инновациям означает игнорировать насущную потребность в ответственной интеграции ИИ. Пока учебные заведения не сделают приоритетом этичный ИИ, эти технологии будут продолжать увековечивать неравенство, а не исправлять его. Внедряя аудиты предвзятости, дополнение данных и алгоритмы, учитывающие справедливость, университеты могут усовершенствовать системы ИИ, чтобы они отражали современное разнообразие студентов. Интеграция репрезентативных наборов данных и постоянный мониторинг результатов гарантируют, что ИИ способствует равенству, а не усиливает устаревшее неравенство.
Обеспечение того, чтобы ИИ служил всем студентам справедливо, требует большего, чем просто благие намерения — это требует многоуровневого подхода, сочетающего технические решения, институциональную политику и грамотность в области ИИ как для преподавателей, так и для студентов. Системы ИИ могут быть справедливы лишь настолько, насколько справедливы данные, на которых они обучаются. Это означает, что учебные заведения должны обеспечить включение в наборы данных широкого спектра социально-экономических слоев, уровней академической успеваемости и культурных контекстов, чтобы предотвратить усиление ИИ существующего неравенства. ИИ никогда не должен работать как «черный ящик» — преподаватели, администраторы и студенты должны понимать, как принимаются решения на основе ИИ. Учебным заведениям необходимо проводить регулярные аудиты, чтобы гарантировать, что их системы остаются справедливыми и не приводят к предвзятым или дискриминационным результатам. Этичный ИИ — это не только технологическая проблема, она требует вклада от специалистов по этике, педагогов, политиков и социологов. Университетам следует формировать междисциплинарные команды для надзора за внедрением ИИ и оценки его влияния на справедливость и равенство. Если студенты и преподаватели не понимают, как работает ИИ, они не могут оспаривать или ставить под сомнение его решения. Вот почему этика и грамотность в области ИИ должны быть интегрированы в учебные программы, вооружая студентов навыками ответственной работы с ИИ и гарантируя, что преподаватели могут критически оценивать решения, принимаемые с помощью ИИ. Учебные заведения должны установить четкие руководящие принципы для внедрения ИИ, обеспечивая учет этических соображений при закупке, развертывании и надзоре. Без политических рамок ИИ рискует стать неконтролируемой силой, которая диктует академические решения без подотчетности.
По мере того как ИИ продолжает формировать высшее образование, учебные заведения должны действовать проактивно, чтобы гарантировать, что он улучшает обучение, а не усугубляет неравенство. Без целенаправленных мер предосторожности ИИ может углубить те самые различия, которые университеты стремятся устранить. Но при справедливых, прозрачных и инклюзивных практиках использования ИИ учебные заведения могут использовать его как силу для достижения равенства, а не как барьер для инклюзии. Будущее ИИ в образовании не предопределено — оно зависит от выбора, который мы делаем сегодня. Для более глубокого изучения этих вопросов полное исследование предлагает подробный анализ. Педагогов, политиков и разработчиков ИИ приглашают присоединиться к обсуждению и работать над созданием систем ИИ, которые поддерживают справедливость, прозрачность и инклюзивность в образовании.