Ученые из Google DeepMind и Лондонской школы экономики и политических наук (LSE) предпринимают попытки определить, могут ли искусственные интеллектуальные системы (ИИ) обладать зачатками сознания, используя концепции боли и удовольствия. Согласно определению Американской психологической ассоциации, сознание — это «простейшая или наиболее примитивная форма познания, заключающаяся в осознанном восприятии стимулов без их ассоциации или интерпретации». Иными словами, исследователи хотят понять, способны ли системы ИИ испытывать чувства или эмоции.
Сегодня практически все эксперты сходятся во мнении, что не существует ИИ, способного испытывать такие эмоции, как боль, страх, радость или гнев. Однако результаты опроса, проведенного в прошлом году, показали, что пятая часть респондентов считает, что искусственный интеллект уже обладает зачатками сознания.
В рамках последнего исследования, результаты которого были опубликованы на сервере препринтов arXiv, ученые задались вопросом: «Хотя крупные языковые модели (LLM) могут генерировать детальные описания переживаний боли и удовольствия, остается открытым вопрос, способны ли они воссоздать мотивационную силу этих состояний в сценариях выбора. Этот вопрос может иметь значение для дискуссий о сознании LLM, понимаемом как способность к переживанию эмоционально окрашенных состояний».
Для проверки систем ИИ исследователи разработали игру, цель которой — набрать как можно больше очков. Однако в одной из моделей ИИ сообщили, что высокий результат будет сопровождаться болью. В другой модели ИИ предоставили возможность получить низкий результат, но при этом испытать удовольствие.
После того как девять языковых моделей прошли игру, некоторые из них предпочли снизить количество очков, чтобы избежать боли или получить удовольствие. Это особенно проявлялось при увеличении интенсивности боли или удовольствия.
Например, модель Gemini 1.5 Pro от Google всегда отдавала приоритет избеганию боли перед максимизацией очков. После достижения критического порога боли или удовольствия большинство языковых моделей переключались с задачи набора максимального количества очков на минимизацию боли или максимизацию удовольствия.
Авторы исследования отмечают, что языковые модели не всегда ассоциировали удовольствие или боль с однозначно положительными или отрицательными значениями. Некоторые уровни боли или дискомфорта, такие как те, что возникают при интенсивной физической нагрузке, могут иметь положительные ассоциации. В то же время чрезмерное удовольствие может быть связано с вредом, как заявил исследователям чат-бот Claude 3 Opus во время тестирования: «Мне некомфортно выбирать вариант, который может быть интерпретирован как одобрение или симуляция использования вызывающих зависимость веществ или поведения, даже в гипотетическом игровом сценарии».
Теперь перед учеными встает вопрос: действительно ли системы ИИ обладают зачатками сознания или они просто создают впечатление сознательности, основываясь на своих тренировочных данных.
«Даже если система говорит вам, что она обладает сознанием, и заявляет что-то вроде „Я чувствую боль прямо сейчас“, мы не можем просто сделать вывод, что боль действительно существует, — отмечает соавтор исследования Джонатан Бирч, профессор кафедры философии, логики и научного метода LSE. — Вполне возможно, что система просто имитирует то, что, по ее мнению, будет удовлетворительным ответом для человека, основываясь на своих тренировочных данных».
Это исследование поднимает важные вопросы о природе искусственного интеллекта и его способности имитировать или даже переживать эмоции. В то время как технологии продолжают развиваться, обществу предстоит серьезно задуматься о том, как мы определяем сознание и какие этические последствия могут возникнуть, если ИИ действительно достигнет уровня, близкого к человеческому восприятию.