Microsoft: использование ИИ ослабляет способность людей мыслить

Новое исследование, проведенное совместно Microsoft и Университетом Карнеги-Меллона, показывает, что использование искусственного интеллекта снижает у людей навыки критического мышления. Исследователи отмечают, что более высокая уверенность в себе связана с усилением критического мышления, а не наоборот. Таким образом, ИИ не только потенциально может делать людей менее способными к анализу, но и наносить им эмоциональный ущерб.

В исследовании, опубликованном на веб-сайте Microsoft, поясняется, что был опрошен 319 работников умственного труда, чья работа связана с обработкой или использованием информации. Эти люди используют генеративные ИИ-инструменты, такие как ChatGPT или Copilot, на работе как минимум раз в неделю. Целью было смоделировать, как они применяют критическое мышление при использовании таких инструментов и как ИИ влияет на их восприятие усилий, необходимых для критического анализа.

Выяснилось, что хотя генеративный ИИ может повысить эффективность работников, он способен подавлять критическое вовлечение в работу. Это потенциально ведет к долгосрочной чрезмерной зависимости от инструмента и ослаблению навыков самостоятельного решения проблем.

Исследователи продолжают, что более высокая уверенность в способности генеративного ИИ выполнить задачу связана с меньшими усилиями по критическому мышлению. При использовании ИИ-инструментов усилия, вкладываемые в критическое мышление, смещаются: от сбора информации к ее проверке; от решения проблемы к интеграции ответа ИИ; и от выполнения задачи к управлению ею.

Объясняется, почему это является проблемой: при неправильном использовании технологии могут приводить и приводят к ухудшению когнитивных способностей, которые следует сохранять. Ключевая ирония автоматизации заключается в том, что, механизируя рутинные задачи и оставляя обработку исключений человеку, она лишает пользователя регулярных возможностей практиковать суждения и укреплять свои «когнитивные мышцы». В результате эти способности атрофируются, и человек оказывается неподготовленным, когда возникают исключительные ситуации.

Как отмечает Live Science, это не обязательно новая проблема, поскольку подобные опасения высказывались давно с появлением Google и других интернет-ресурсов. Однако беспокойство вызывает широкое внедрение ИИ среди детей школьного возраста.

Кроме того, популярные ИИ-чат-боты не всегда надежны. Ян Чен, доцент Западного университета и ведущий автор недавнего исследования, опубликованного в журнале INFORMS, говорит, что поскольку ИИ учится на человеческих данных, он может также думать как человек – со всеми предубеждениями. Их исследование показывает, что когда ИИ используется для вынесения суждений, он иногда применяет те же ментальные «короткие пути», что и люди.

 

Ученые используют ИИ для борьбы с устойчивостью к антибиотикам

Не доверяй слепо: руководство по выбору поставщика ИИ для компаний

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *