Академическая честность или охота на ведьм с помощью ИИ?

Студент Альберт был ошеломлен, когда его университет обвинил в использовании искусственного интеллекта для написания эссе. Предполагаемым нарушением стало использование им обычных академических оборотов, таких как «в отличие от» и «в дополнение к». Не имея другого выбора, кроме как защищаться перед дисциплинарной комиссией, Альберту пришлось доказывать, что его работа действительно является его собственной.

Его случай не единичен. По мере роста использования генеративного ИИ университеты все чаще полагаются на инструменты обнаружения ИИ для борьбы с академическими нарушениями. Однако эти системы не только несовершенны, но и подрывают доверие между студентами и учебными заведениями.

По данным Института политики в области высшего образования (Higher Education Policy Institute), 88% студентов сейчас используют генеративный ИИ в своих учебных работах — по сравнению с 66% в 2024 году. При этом 18% признаются в откровенном списывании, что на 13% больше, чем в 2023 году. Тем временем, инструменты обнаружения ИИ, разработанные для сохранения академической честности, продолжают непропорционально часто ошибочно идентифицировать работы студентов, для которых английский язык не является родным, и нейроотличных студентов, вызывая серьезные опасения относительно справедливости и предвзятости.

Исследования непреднамеренных последствий принятия решений на основе ИИ и этической необходимости прозрачности показывают, что если ИИ суждено формировать образование, он должен делать это справедливо, объяснимо и в соответствии с принципами высшего обучения. В частности, работа «Evaluating Methods for Assessing Interpretability of Deep Neural Networks (DNNs)», выполненная в соавторстве с доктором Джеймсом Хатсоном, посвящена этим вопросам.

Университеты пытаются сдержать влияние ИИ на академическую честность, все чаще полагаясь на такие инструменты обнаружения, как AI Writing Indicator от Turnitin, ContentDetector.AI или ZeroGPT. Однако, несмотря на их широкое использование, недавние исследования показывают, что классификаторы текста на основе ИИ не могут надежно обнаруживать использование генеративного ИИ в учебных работах. Эти инструменты часто неверно классифицируют написанные человеком работы как созданные ИИ и могут быть легко обмануты с помощью незначительных изменений текста. В то время как студенты все чаще используют ИИ в качестве помощника при письме, преподаватели остаются разделенными во мнениях — одни рассматривают использование ИИ как неизбежную эволюцию в обучении, другие — как плагиат.

Проблема выходит за рамки ненадежного обнаружения: ИИ-классификаторы непропорционально часто отмечают работы студентов из уязвимых групп, что вызывает серьезные этические опасения. Ложноположительные результаты могут привести к эмоциональному стрессу, академическим наказаниям и долгосрочным последствиям, непропорционально затрагивая студентов, для которых английский язык не является родным, темнокожих студентов и нейроотличных учащихся. В ответ на это некоторые учебные заведения решили полностью отключить инструменты обнаружения ИИ.

Университет Вандербильта, например, сообщает о решении отключить инструмент обнаружения ИИ от Turnitin на неопределенный срок из-за опасений по поводу ложных срабатываний и отсутствия прозрачности. Хотя Turnitin заявляет о доле ложноположительных результатов в 1%, масштаб его внедрения делает эту цифру значительной — если бы инструмент был активен в 2022 году, когда в Вандербильте было подано 75 000 работ, примерно 750 студентов могли бы быть ложно обвинены в плагиате с использованием ИИ.

Многочисленные исследования выявили серьезные этические проблемы, связанные с инструментами обнаружения ИИ, особенно их склонность усиливать предвзятость и непропорционально влиять на студентов из маргинализированных групп. Исследование Стэнфордского университета, в ходе которого оценивались семь инструментов обнаружения ИИ, ложно отметило 61,2% эссе из экзамена TOEFL (Test of English as a Foreign Language), что вызывает опасения относительно справедливости академической оценки. В сравнении, детекторы показали «почти идеальные» результаты при оценке эссе американских студентов.

Отчет Common Sense Media показал, что темнокожие студенты чаще обвиняются преподавателями в плагиате с использованием ИИ. Одной из вероятных причин является способ обучения ИИ-детекторов, которые полагаются на гомогенизированные наборы данных, не учитывающие разнообразие стилей письма. Студенты, использующие простую лексику, механическую структуру или менее сложные вариации предложений, подвергаются более высокому риску ложных обвинений.

Инструменты обнаружения ИИ также непропорционально часто отмечают нейроотличных студентов, чье письмо может не соответствовать общепринятым академическим нормам. Хорошо задокументирован случай 24-летней студентки Центрального методистского университета, которую, несмотря на то, что расстройство аутистического спектра влияло на ее стиль письма, ложно обвинили в плагиате с использованием ИИ и первоначально поставили неудовлетворительную оценку.

Несмотря на ложные срабатывания на подлинных студенческих работах, инструменты обнаружения ИИ также с трудом выявляют действительно сгенерированный ИИ контент. Исследования показывают, что незначительные изменения текста могут снизить точность обнаружения до 17,4%, позволяя преднамеренному неправомерному использованию оставаться незамеченным, в то время как честные студенты сталкиваются с необоснованными наказаниями.

Последствия этих недостатков выходят за рамки академической политики. Они создают атмосферу подозрительности и страха. Студенты теперь колеблются использовать законные вспомогательные средства для письма, такие как Grammarly, опасаясь быть обвиненными в нарушениях. Вместо того чтобы способствовать обучению, обнаружение ИИ рискует наказывать студентов за хорошее письмо, одновременно усиливая системные предубеждения в образовании. Учебные заведения должны критически оценить, действительно ли эти инструменты сохраняют академическую честность или просто создают новые формы неравенства под предлогом контроля.

Реальная опасность заключается не только в неправомерном использовании ИИ студентами, но и в неправомерном использовании ИИ учебными заведениями таким образом, что это подрывает справедливость и надлежащую правовую процедуру. Автоматизированные системы обнаружения работают с использованием непрозрачных алгоритмов, также известных как алгоритмы «черного ящика», что делает невозможным для студентов понимание или оспаривание обвинений. В случае Альберта простой разговор с его профессором перед официальным слушанием мог бы решить проблему. Вместо этого студенты, подобные ему, вынуждены защищать свою академическую честность от обвинений, основанных на работе «черных ящиков».

Кроме того, роль ИИ в академической поддержке глубоко противоречива. Некоторые учреждения, такие как Кембриджский университет, приняли ИИ в качестве инструмента для совместного обучения, направляя студентов в исследовании концепций и управлении временем. Другие рассматривают его как экзистенциальную угрозу, подавляя использование и одновременно применяя ИИ для создания учебных материалов, административных ответов и даже экзаменационных вопросов. Этот двойной стандарт вызывает разочарование как у студентов, так и у преподавателей.

Высшее образование должно справляться с влиянием ИИ, не жертвуя доверием, равенством или критическим мышлением. Предлагаются следующие шаги: обучение ИИ-грамотности для студентов и преподавателей с четкими руководящими принципами допустимого использования вместо الاعتمادа на ошибочные инструменты обнаружения; обеспечение надлежащей правовой процедуры и прозрачности, когда обвинения в неправомерном использовании ИИ требуют человеческого рассмотрения, а студентам предоставляется справедливый шанс защитить свою работу до принятия дисциплинарных мер. Вместо борьбы с ИИ учреждениям следует интегрировать его в учебный процесс, обучая студентов ответственному взаимодействию с ИИ, так же как их учат правильно цитировать источники. Необходимо внедрять ИИ-инструменты в курсовые работы как возможность для обучения, направляя студентов по вопросам ответственного использования, критической оценки и правильного цитирования контента, сгенерированного ИИ, смещая акцент с карательных мер на развитие навыков путем внедрения альтернативных методов оценки, которые подчеркивают понимание, критическое мышление и академический рост, а не жесткие метрики оценки.

Альберт в конечном итоге очистил свое имя, но этот опыт заставил его перевестись в другой университет. Его история подчеркивает растущий кризис в высшем образовании — не только из-за ИИ, но и из-за эрозии доверия между студентами и учебными заведениями. ИИ должен поддерживать обучение, а не подрывать его, и университеты должны найти баланс между поддержанием академической честности и защитой студентов от несовершенных инструментов обнаружения. Вопрос не в том, принадлежит ли ИИ образованию, а в том, будут ли университеты использовать его этично, прозрачно и справедливо.

 

Парадокс ИИ: как технологии удваивают работу и делают людей счастливее

От фото до диагноза: ИИ распознает скрытую боль у кошек

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *