Согласно новому исследованию, сразу две различные модели искусственного интеллекта успешно прошли тест Тьюринга. Это означает, что данные ИИ-модели достигли способности быть неотличимыми от людей в процессе общения.
Тест Тьюринга представляет собой проверку способности машины демонстрировать интеллектуальное поведение, эквивалентное человеческому и неотличимое от него. Суть теста заключается в том, что участники одновременно общаются с человеком и с искусственным интеллектом, а затем должны определить, кто из собеседников является машиной, а кто – человеком.
В предварительной версии исследования, проведенного учеными из Департамента когнитивных наук Калифорнийского университета в Сан-Диего, тестировались четыре системы ИИ: ELIZA, GPT-4o, LLaMa-3.1-405B и GPT-4.5. Испытания проходили в рамках двух рандомизированных, контролируемых и предварительно зарегистрированных тестов Тьюринга.
Исследователи пишут, что участники вели пятиминутные беседы одновременно с другим человеком-участником и одной из ИИ-систем, после чего выносили суждение, кого из собеседников они считают человеком. Когда системе GPT-4.5 давали указание имитировать человеческую личность, ее принимали за человека в 73% случаев. Это значительно чаще, чем участники выбирали реального человека.
Модель LLaMa-3.1, получившая такое же указание, была признана человеком в 56% случаев, что статистически не отличается от частоты выбора реальных людей, с которыми ее сравнивали. В то же время базовые модели, ELIZA и GPT-4o, показали результаты значительно ниже случайного угадывания – 23% и 21% соответственно.
Ученые заявляют, что эти результаты представляют собой первое эмпирическое свидетельство того, что какая-либо искусственная система проходит стандартный трехсторонний тест Тьюринга. Полученные данные имеют значение для дискуссий о типе интеллекта, демонстрируемого большими языковыми моделями (LLM), а также для оценки социальных и экономических последствий, которые вероятно вызовут эти системы.
Автор исследования Кэмерон Р. Джонс пишет в социальной сети X (ранее Twitter), что вопрос о том, означает ли это, что LLM обладают интеллектом, очень сложен и его трудно осветить в одной статье или сообщении. Однако в целом он считает, что эти результаты следует рассматривать как одно из многих свидетельств в пользу определенного типа интеллекта, проявляемого LLM.
Более насущным, по его словам, является то, что результаты предоставляют дополнительные доказательства способности LLM заменять людей в коротких взаимодействиях так, что никто не сможет этого заметить. Он продолжает, что это потенциально может привести к автоматизации рабочих мест, совершенствованию атак с использованием социальной инженерии и более общей дестабилизации общества.
Предупреждения о возможности подобного развития событий звучали и ранее. Многие выражали сомнения в целесообразности разработок в этой области. Теперь, похоже, возникает необходимость усиливать меры проверки и, возможно, вводить для людей аналог теста Войт-Кампфа, чтобы убедиться, что они не являются продвинутыми человекоподобными роботами.