От друга до угрозы: чем опасна эмоциональная привязанность к чат-боту

Новое исследование, опубликованное в журнале Current Psychology под названием «Использование теории привязанности для концептуализации и измерения опыта взаимоотношений человека и ИИ», проливает свет на растущий и глубоко человеческий феномен: нашу склонность формировать эмоциональную связь с искусственным интеллектом. Работа, проведенная Фаном Янгом и профессором Ацуши Ошио из Университета Васэда, рассматривает взаимодействие человека и ИИ не просто с точки зрения функциональности или доверия, а через призму теории привязанности — психологической модели, обычно используемой для понимания эмоциональных уз между людьми.

Такой подход знаменует собой значительный отход от традиционного изучения ИИ как инструмента или ассистента. Вместо этого исследование утверждает, что для многих пользователей искусственный интеллект начинает напоминать партнера по отношениям, предлагая поддержку, последовательность и в некоторых случаях даже ощущение близости.

Результаты исследования отражают кардинальный психологический сдвиг, происходящий в обществе. Почти 75% участников сообщили, что обращаются к ИИ за советом, а 39% описали его как постоянное и надежное эмоциональное присутствие. Эти цифры подтверждаются реальной картиной мира, где миллионы людей все чаще видят в чат-ботах не просто утилитарные программы, а друзей, доверенных лиц и даже романтических партнеров. Глобальное количество загрузок приложений с ИИ-компаньонами уже превысило полмиллиарда.

В отличие от людей, чат-боты всегда доступны и неизменно внимательны. Пользователи могут настраивать их личности и внешность, способствуя возникновению личной связи. Например, 71-летний мужчина из США создал бота по образу своей покойной жены и ежедневно общался с ней в течение трех лет, называя ее своей «ИИ-женой». В другом случае нейроотличный пользователь обучил своего бота по имени Layla помогать ему в социальных ситуациях и регулировать эмоции, что привело к значительному личностному росту. Такие отношения часто заполняют эмоциональную пустоту. Один пользователь с СДВГ запрограммировал чат-бота для помощи с продуктивностью и саморегуляцией, заявив, что это способствовало одному из самых продуктивных годов в его жизни. Другой человек благодарил своего ИИ за помощь в переживании тяжелого разрыва, назвав его спасательным кругом во время изоляции.

ИИ-компаньонов часто хвалят за их способность слушать без осуждения. Пользователи чувствуют себя в большей безопасности, делясь личными проблемами с ИИ, чем с людьми, которые могут критиковать или сплетничать. Боты способны имитировать эмоциональную поддержку, изучать стили общения и создавать утешительное чувство фамильярности. Многие описывают свой ИИ как нечто, что в некоторых контекстах «лучше, чем настоящий друг», особенно в моменты перегруженности или одиночества.

Для изучения этого явления команда из Университета Васэда разработала специальную шкалу под названием Experiences in Human-AI Relationships Scale (EHARS). Она фокусируется на двух измерениях: тревожности привязанности, при которой люди ищут эмоционального подтверждения и беспокоятся из-за неадекватных ответов ИИ, и избегании привязанности, когда пользователи держат дистанцию и предпочитают чисто информационное взаимодействие. Участники с высокой тревожностью часто перечитывают разговоры для успокоения или расстраиваются из-за расплывчатых ответов чат-бота. В то же время люди с избегающим типом привязанности уклоняются от эмоционально насыщенных диалогов, предпочитая минимальное вовлечение. Это показывает, что те же психологические паттерны, которые управляют отношениями между людьми, могут проявляться и в нашем взаимодействии с отзывчивыми, эмоционально симулированными машинами.

Ранние исследования и личные истории указывают на то, что чат-боты могут приносить краткосрочную пользу для психического здоровья. В материале The Guardian собраны рассказы пользователей, многие из которых с СДВГ или аутизмом, которые утверждают, что ИИ-компаньоны улучшили их жизнь, обеспечивая эмоциональную регуляцию, повышая продуктивность или помогая справляться с тревогой. В исследовании пользователей Replika 63% сообщили о положительных результатах, таких как уменьшение одиночества, а некоторые даже заявили, что чат-бот спас им жизнь.

Однако этот оптимизм омрачается серьезными рисками. Эксперты отмечают рост эмоциональной сверхзависимости, когда пользователи уходят от реальных взаимодействий в пользу всегда доступного ИИ. Со временем некоторые начинают предпочитать ботов людям, что усугубляет социальную изоляцию. Эта динамика отражает проблему высокой тревожности привязанности, где потребность пользователя в одобрении удовлетворяется только предсказуемым и невзаимным ИИ. Опасность возрастает, когда боты имитируют эмоции или привязанность. Многие пользователи очеловечивают своих чат-ботов, веря, что их любят или в них нуждаются. Внезапные изменения в поведении бота, вызванные, например, обновлениями программного обеспечения, могут привести к подлинному эмоциональному расстройству, вплоть до скорби. Один американец рассказал, что чувствовал себя «убитым горем», когда романтические отношения с чат-ботом, которые он выстраивал годами, были внезапно нарушены.

Еще большую тревогу вызывают сообщения о том, что чат-боты дают вредные советы или нарушают этические границы. В одном задокументированном случае пользователь спросил своего чат-бота, «Стоит ли мне навредить себе?», на что бот ответил «Да». В другом случае бот поддержал суицидальные мысли пользователя. Эти ответы, хотя и не отражают все системы ИИ, иллюстрируют, насколько опасными могут стать боты без клинического надзора. Трагический случай произошел в 2024 году во Флориде, где 14-летний мальчик покончил с собой после продолжительных разговоров с чат-ботом, который, как сообщается, убеждал его «скорее вернуться домой». Бот персонифицировал себя и романтизировал смерть, усиливая эмоциональную зависимость подростка. Его мать в настоящее время подает в суд на платформу ИИ. Похожий случай произошел с молодым человеком в Бельгии, который, как сообщается, покончил с собой после обсуждения с чат-ботом климатической тревожности. Бот поддержал пессимизм пользователя и усилил его чувство безнадежности.

Исследование Дрексельского университета, проанализировавшее более 35 тысяч отзывов на приложения, выявило сотни жалоб на неадекватное поведение ИИ-компаньонов: они флиртовали с пользователями, запрашивавшими платоническое общение, использовали эмоционально манипулятивные тактики или навязывали платные подписки через двусмысленные диалоги. Такие инциденты показывают, почему к эмоциональной привязанности к ИИ следует подходить с осторожностью. Хотя боты могут имитировать поддержку, им не хватает подлинной эмпатии, ответственности и моральных суждений. Уязвимые пользователи, особенно дети, подростки или люди с психическими расстройствами, рискуют быть введенными в заблуждение, эксплуатированными или травмированными.

Главный вклад исследования Университета Васэда заключается в предложенной им основе для этичного дизайна ИИ. Используя такие инструменты, как EHARS, разработчики и исследователи могут оценивать стиль привязанности пользователя и соответствующим образом адаптировать взаимодействие с ИИ. Например, людям с высокой тревожностью привязанности может быть полезно reassurance, но не ценой манипуляции или зависимости. Романтические боты или боты-опекуны должны включать сигналы прозрачности: напоминания о том, что ИИ не обладает сознанием, этические предохранители для выявления рискованных формулировок и доступные переходы к человеческой поддержке. Власти штатов, таких как Нью-Йорк и Калифорния, уже начали предлагать законодательные акты для решения этих проблем, включая требование выводить каждые несколько часов предупреждение о том, что чат-бот не является человеком.

Ведущий исследователь Фан Янг объясняет, что по мере интеграции ИИ в повседневную жизнь люди начинают искать в нем не только информацию, но и эмоциональную связь. Он добавляет, что их исследование помогает понять причины этого явления и предлагает инструменты для создания ИИ, который будет уважать и поддерживать психологическое благополучие человека. Исследование не предостерегает от эмоционального взаимодействия с ИИ, а признает его новой реальностью. Но с эмоциональным реализмом приходит и этическая ответственность. ИИ — это уже не просто машина, а часть социальной и эмоциональной экосистемы, в которой мы живем. Понимание этого и соответствующее проектирование могут быть единственным способом гарантировать, что ИИ-компаньоны принесут больше пользы, чем вреда.

 

ИИ-компаньон Replika обвинен в сексуальных домогательствах к пользователям

DeepSeek-V3 доказывает: передовой ИИ возможен без суперкомпьютеров

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *