Новое исследование, проведенное совместно Microsoft и Университетом Карнеги-Меллона, показывает, что использование искусственного интеллекта снижает у людей навыки критического мышления. Исследователи отмечают, что более высокая уверенность в себе связана с усилением критического мышления, а не наоборот. Таким образом, ИИ не только потенциально может делать людей менее способными к анализу, но и наносить им эмоциональный ущерб.
В исследовании, опубликованном на веб-сайте Microsoft, поясняется, что был опрошен 319 работников умственного труда, чья работа связана с обработкой или использованием информации. Эти люди используют генеративные ИИ-инструменты, такие как ChatGPT или Copilot, на работе как минимум раз в неделю. Целью было смоделировать, как они применяют критическое мышление при использовании таких инструментов и как ИИ влияет на их восприятие усилий, необходимых для критического анализа.
Выяснилось, что хотя генеративный ИИ может повысить эффективность работников, он способен подавлять критическое вовлечение в работу. Это потенциально ведет к долгосрочной чрезмерной зависимости от инструмента и ослаблению навыков самостоятельного решения проблем.
Исследователи продолжают, что более высокая уверенность в способности генеративного ИИ выполнить задачу связана с меньшими усилиями по критическому мышлению. При использовании ИИ-инструментов усилия, вкладываемые в критическое мышление, смещаются: от сбора информации к ее проверке; от решения проблемы к интеграции ответа ИИ; и от выполнения задачи к управлению ею.
Объясняется, почему это является проблемой: при неправильном использовании технологии могут приводить и приводят к ухудшению когнитивных способностей, которые следует сохранять. Ключевая ирония автоматизации заключается в том, что, механизируя рутинные задачи и оставляя обработку исключений человеку, она лишает пользователя регулярных возможностей практиковать суждения и укреплять свои «когнитивные мышцы». В результате эти способности атрофируются, и человек оказывается неподготовленным, когда возникают исключительные ситуации.
Как отмечает Live Science, это не обязательно новая проблема, поскольку подобные опасения высказывались давно с появлением Google и других интернет-ресурсов. Однако беспокойство вызывает широкое внедрение ИИ среди детей школьного возраста.
Кроме того, популярные ИИ-чат-боты не всегда надежны. Ян Чен, доцент Западного университета и ведущий автор недавнего исследования, опубликованного в журнале INFORMS, говорит, что поскольку ИИ учится на человеческих данных, он может также думать как человек – со всеми предубеждениями. Их исследование показывает, что когда ИИ используется для вынесения суждений, он иногда применяет те же ментальные «короткие пути», что и люди.