С появлением больших языковых моделей, таких как ChatGPT и Gemini, искусственный интеллект стремительно вошел в академическую среду, изменив подходы к написанию и публикации научных работ. Для исследователей, не являющихся носителями английского языка, который доминирует в науке, ИИ стал настоящим спасением. Он предоставил доступный и быстрый способ улучшить стиль и ясность текстов, избавляя от необходимости прибегать к дорогостоящим услугам профессиональных редакторов.
Однако эта технологическая революция породила и серьезные этические вопросы, связанные с плагиатом и академической честностью. В ответ на опасения научного сообщества появились инструменты для обнаружения текста, сгенерированного ИИ. Такие сервисы, как GPTZero и ZeroGPT, были призваны стать стражами оригинальности, гарантируя, что представленные работы написаны человеком.
Новое исследование, опубликованное в научном журнале «PeerJ Computer Science», проливает свет на темную сторону этих технологий. Ученые выяснили, что инструменты для детекции ИИ не просто ошибаются — они демонстрируют явную предвзятость. Чаще всего их «жертвами» становятся именно те, кому ИИ должен был помочь: авторы, для которых английский язык не является родным.
В ходе эксперимента было установлено, что тексты таких авторов, даже если они были написаны полностью самостоятельно или лишь слегка отредактированы с помощью ИИ для улучшения грамматики, с высокой вероятностью помечались как «полностью сгенерированные машиной». Парадоксально, но детектор, показавший самую высокую общую точность, оказался и самым предвзятым. Это создает ситуацию, в которой ученые могут столкнуться с необоснованными обвинениями в недобросовестности просто за стремление соответствовать высоким языковым стандартам международных журналов.
Проблема усугубляется тем, что детекторы часто работают как «черные ящики», не объясняя, на каком основании они выносят свой вердикт. Это лишает авторов возможности оспорить ложное обвинение. Под угрозой оказались не только отдельные исследователи, но и целые научные области, например, гуманитарные и социальные науки, использующие более сложный и образный язык, который алгоритмы могут неверно интерпретировать.
Исследователи пришли к выводу, что слепая вера в ИИ-детекторы — тупиковый путь. Вместо того чтобы полагаться на несовершенные алгоритмы, академическому сообществу следует выработать новые этические принципы. Необходимо сместить акцент с тотального контроля на поощрение прозрачности, когда ученые открыто заявляют об использовании ИИ в качестве вспомогательного инструмента.
Авторы исследования призывают издательства, университеты и рецензентов переосмыслить свою политику. Жесткие запреты и опора на предвзятые детекторы могут принести больше вреда, чем пользы, создавая новые барьеры для исследователей из разных стран и усиливая существующее неравенство. Будущее справедливой науки зависит не от технологий обнаружения, а от человеческого суждения, инклюзивности и взвешенного подхода к интеграции ИИ в творческий и исследовательский процесс.