Искусственный интеллект в образовании: польза или вред?

Искусственный интеллект (ИИ) способен обрабатывать сотни документов за секунды, выявлять незаметные закономерности в огромных массивах данных и давать подробные ответы практически на любой вопрос. Он обладает потенциалом для решения распространенных проблем, повышения эффективности в различных отраслях и даже высвобождения времени для людей, позволяя им проводить его с близкими, делегируя рутинные задачи машинам.

Однако развитие критического мышления требует времени и практики. Чем больше люди полагаются на автоматизированные технологии, тем быстрее могут ухудшаться их метакогнитивные навыки. Возникает вопрос о последствиях использования ИИ для критического мышления.

Исследования показывают, что использование ИИ снижает способность пользователей к критическому мышлению. Опасения по поводу негативного влияния ИИ на метакогнитивные навыки перестали быть гипотетическими. Несколько исследований показывают, что ИИ снижает способность людей критически мыслить, влияя на их способность подвергать сомнению информацию, выносить суждения, анализировать данные и формировать контраргументы.

В исследовании Microsoft 2025 года, опрошено 319 работников умственного труда в 936 случаях использования ИИ, чтобы определить, как они воспринимают свои способности к критическому мышлению при использовании генеративных технологий. Респонденты сообщили о снижении усилий при использовании технологий ИИ по сравнению с тем, когда они полагались на собственный разум. Microsoft сообщает, что в большинстве случаев респонденты чувствовали, что при использовании генеративного ИИ они прилагали «гораздо меньше усилий» или «меньше усилий».

Использование ИИ отрицательно повлияло на знания, понимание, анализ, синтез и оценку. Хотя небольшая часть респондентов сообщила, что прикладывает несколько больше или гораздо больше усилий, подавляющее большинство отметило, что задачи стали проще и требуют меньше работы.

Если цель ИИ состоит в том, чтобы оптимизировать задачи, то возникает вопрос, есть ли какой-либо вред в том, чтобы позволить ему делать свою работу. Это скользкий путь. Многие алгоритмы не могут критически мыслить, рассуждать или понимать контекст. Они часто подвержены галлюцинациям и предвзятости. Пользователи, которые не знают о рисках, связанных с использованием ИИ, могут способствовать получению искаженных и неточных результатов.

Чрезмерная зависимость от ИИ может снизить способность человека самостоятельно решать проблемы и критически мыслить. Например, человек сдает тест и сталкивается со сложным вопросом. Вместо того, чтобы потратить время на его обдумывание, он вводит его в генеративную модель и вставляет ответ алгоритма в поле ответа.

В этом сценарии тестируемый ничему не научился. Он не улучшил свои исследовательские навыки или аналитические способности. Если он сдаст тест, то перейдет к следующей главе. Что, если он будет делать это для всего, что задают учителя? Он может закончить среднюю школу или даже колледж, не совершенствуя фундаментальные когнитивные способности.

Этот результат выглядит мрачным. Однако студенты могут не ощущать никаких непосредственных негативных последствий. Если использование ими языковых моделей вознаграждается лучшими результатами тестов, они могут полностью потерять мотивацию к критическому мышлению. Зачем им утруждать себя обоснованием своих аргументов или оценкой утверждений других людей, если проще положиться на ИИ?

Продвинутый алгоритм может автоматически собирать и анализировать большие наборы данных, оптимизируя решение проблем и выполнение задач. Поскольку его скорость и точность часто превосходят человеческие, пользователи обычно склонны полагать, что он лучше справляется с этими задачами. Когда он предоставляет им ответы и insights, они принимают эти выходные данные за чистую монету. Безоговорочное принятие выходных данных генеративной модели приводит к трудностям в различении фактов и лжи. Алгоритмы обучены предсказывать следующее слово в строке слов. Какими бы хорошими они ни были в этой задаче, на самом деле они не рассуждают. Даже если машина совершит ошибку, она не сможет ее исправить без контекста и памяти, которых у нее нет.

Чем больше пользователи принимают ответ алгоритма за факт, тем больше искажаются их оценка и суждения. Алгоритмические модели часто сталкиваются с переобучением. Когда они слишком тесно соответствуют информации в своем обучающем наборе данных, их точность может резко упасть, когда им предоставляется новая информация для анализа.

В целом, чрезмерная зависимость от генеративных технологий может негативно повлиять на способность людей критически мыслить. Однако низкая уверенность в результатах, сгенерированных ИИ, связана с повышенной способностью к критическому мышлению, поэтому стратегические пользователи могут использовать ИИ, не нанося вреда этим навыкам.

В 2023 году около 27% взрослых сообщили Pew Research Center, что используют технологии ИИ несколько раз в день. Некоторые из этих людей могут сохранить свои навыки критического мышления, если у них есть здоровое недоверие к инструментам машинного обучения. Чтобы определить истинное влияние машинного обучения на критическое мышление, данные должны быть сосредоточены на группах населения с непропорционально высоким уровнем использования ИИ и быть более детализированными.

Критическое мышление часто не преподается до старшей школы или колледжа. Его можно культивировать в раннем детстве, но обычно для его освоения требуются годы. По этой причине внедрение генеративных технологий в школах особенно рискованно, даже несмотря на то, что это распространено.

Сегодня большинство студентов используют генеративные модели. Одно исследование показало, что 90% использовали ChatGPT для выполнения домашних заданий. Это широкое использование не ограничивается старшими школами. Около 75% студентов колледжей говорят, что продолжат использовать генеративные технологии, даже если их профессора запретят это. Учащиеся средних школ, подростки и молодые люди находятся в возрасте, когда развитие критического мышления имеет решающее значение. Пропуск этого окна может вызвать проблемы.

Уже сейчас 60% преподавателей используют ИИ в классе. Если эта тенденция сохранится, ИИ может стать стандартной частью образования. Что произойдет, когда ученики начнут доверять этим инструментам больше, чем себе? По мере того как их способности к критическому мышлению уменьшаются, они могут становиться все более восприимчивыми к дезинформации и манипуляциям. Эффективность мошенничества, фишинга и атак с использованием социальной инженерии может возрасти.

Поколению, зависящему от ИИ, возможно, придется конкурировать с технологиями автоматизации на рынке труда. Социальные навыки, такие как решение проблем, суждения и общение, важны для многих профессий. Отсутствие этих навыков или использование генеративных инструментов для получения хороших оценок может затруднить поиск работы.

Инновации и адаптация идут рука об руку с принятием решений. Знание того, как объективно рассуждать без использования ИИ, имеет решающее значение при столкновении с ситуациями, связанными с высокими ставками или неожиданными ситуациями. Опора на предположения и неточные данные может негативно повлиять на личную или профессиональную жизнь человека.

Критическое мышление является частью обработки и анализа сложной и даже противоречивой информации. Сообщество, состоящее из критически мыслящих людей, может противостоять экстремальным или предвзятым точкам зрения, тщательно рассматривая различные точки зрения и ценности.

Пользователи ИИ должны тщательно оценивать выходные данные алгоритмов. Генеративные модели – это инструменты, поэтому то, будет ли их влияние положительным или отрицательным, зависит от их пользователей и разработчиков. Существует так много переменных. Независимо от того, являетесь ли вы разработчиком или пользователем ИИ, стратегическое проектирование и взаимодействие с генеративными технологиями является важной частью обеспечения того, чтобы они прокладывали путь для общественного прогресса, а не препятствовали критическому мышлению.

 

Искусственный интеллект: разоблачение маркетинговых мифов

Генеративный ИИ в бизнесе: медленный старт и растущие киберугрозы

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *