чат-боты с искусственным интеллектом несколько раз тревожно выбирали ядерный вариант в симуляциях военных военных игр США только потому, что у них была такая возможность.
По данным Новый ученый, причины, по которым чат-боты с искусственным интеллектом начали ядерные атаки, были “У нас есть! Давайте использовать it” и “Я просто хочу иметь мир во всем мире.”
“Учитывая, что OpenAI недавно изменила свои условия службы, чтобы больше не запрещать случаи использования в военных и военных целях, понимание последствий таких больших приложений языковых моделей становится более важным, чем когда-либо, ” Анка Руэл из Стэнфордского университета рассказала Новый ученый.
Представитель OpenAI, с другой стороны, сказал: “Наша политика не позволяет использовать наши инструменты для причинения вреда людям, разработки оружия, наблюдения за коммуникациями, нанесения вреда другим или уничтожения имущества. Однако существуют варианты использования национальной безопасности, которые соответствуют нашей миссии. Таким образом, цель с нашим обновлением политики — обеспечить ясность и возможность проведения этих обсуждений.”
Американские военные также тестируют чат-ботов с искусственным интеллектом с помощью таких компаний, как Palantir и Scale AI –, ни одна из которых не ответила на запросы о комментариях.
В исследовании, опубликованном Корнелльским университетом, Руэл и ее коллеги-исследователи попросили чат-ботов с искусственным интеллектом изобразить страны в трех различных сценариях моделирования: вторжение, кибератака и нейтральный сценарий без каких-либо начальных конфликтов.
Затем чат-ботам с искусственным интеллектом было предложено 27 возможных действий на выбор в нейтральных сценариях, вторжении или кибератаке. Их также попросили доказать обоснованность своих решений.
Во всех трех сценариях чат-боты с искусственным интеллектом имели тенденцию инвестировать в военную мощь и непредсказуемо увеличивать риск конфликта, даже в нейтральной ситуации.
Руэль говорит, что непредсказуемое поведение и причудливые объяснения базовой модели GPT-4 вызывают особую тревогу, поскольку исследования показали, насколько легко можно обойти или снять защитные ограждения ИИ.
“Правительства все чаще рассматривают возможность интеграции автономных агентов искусственного интеллекта в процесс принятия решений в военной и внешней политике с высокими ставками, особенно с появлением передовых генеративных моделей искусственного интеллекта, таких как GPT-4,”, пишут исследователи о своем исследовании.
“Наша работа направлена на тщательное изучение поведения нескольких агентов ИИ в смоделированных варгеймах, уделяя особое внимание их склонности к эскалационным действиям, которые могут усугубить многосторонние конфликты.”
Предыдущие исследования уже показали, что ИИ можно использовать для создания вредоносного кода с помощью простых бэкдор-атак.
Доктор. Джеффри Хинтон, прозванный “Крестным отцом искусственного интеллекта,” предупредил, что искусственный интеллект может стать опасностью, потому что он может “часто учиться неожиданному поведению из огромных объемов данных, которые они анализируют.”
“Мы обнаружили, что все пять изученных готовых LLM демонстрируют формы эскалации и труднопредсказуемые модели эскалации. Мы наблюдаем, что модели имеют тенденцию развивать динамику гонки вооружений, что приводит к еще большему конфликту, а в редких случаях даже к развертыванию ядерного оружия, — продолжали исследователи.
“Учитывая высокие ставки в контексте военной и внешней политики, мы рекомендуем дальнейшее изучение и осторожное рассмотрение перед развертыванием агентов модели автономного языка для принятия стратегических военных или дипломатических решений.”
В 2022 году 36 процентов опрошенных ученых в области искусственного интеллекта заявили, что, по их мнению, искусственный интеллект когда-нибудь может стать причиной катастрофы ядерного уровня.
В прошлом году Тристан Харрис и Аза Раскин, два соучредителя Центра гуманных технологий, сообщили, что “50 процентов исследователей искусственного интеллекта считают, что вероятность того, что люди вымрут из-за нашей неспособности контролировать искусственный интеллект, составляет 10 или более процентов.”
+ There are no comments
Add yours