Ученый дает людям меньше, чем за 200 лет до того, как ИИ сможет убить нас всех

 

Директор Центра астрофизики Джодрелл-Бэнк утверждает, что человеческие цивилизации могут вымереть из-за безудержного искусственного интеллекта (ИИ) в течение 100-200 лет.

Майкл Гарретт, радиоастроном из Манчестерского университета, объяснил, почему, по его мнению, это может произойти, в недавно опубликованном в рецензируемом журнале исследовании Акта Астронавтика.

“В этом исследовании рассматривается гипотеза о том, что быстрое развитие искусственного интеллекта (ИИ), кульминацией которого стало появление искусственного сверхразума (ASI), может действовать как ‘Великий фильтр’, ответственный за нехватку передовых технологических цивилизаций во Вселенной,” пишет Гаррет в статье.

“Предполагается, что такой фильтр возникает до того, как эти цивилизации смогут развить стабильное, мультипланетарное существование, предполагая, что типичное долголетие технической цивилизации составляет менее 200 лет.”

“Великий фильтр — это предполагаемое событие или ситуация, которая не позволяет разумной жизни стать межпланетной и межзвездной и даже приводит к ее упадку. Подумайте об изменении климата, ядерной войне, ударах астероидов, взрывах сверхновых, чуме или о любом количестве других вещей из галереи катастрофических событий мошенника.”

Затем он спрашивает, может ли быстрое развитие ИИ также быть причиной?

В своей исследовательской работе Гаррет следует нынешней траектории ИИ к тому, чтобы стать полноценным общим искусственным интеллектом (GAI).

По данным компании Accelerai, занимающейся разработкой искусственного интеллекта, “General Artificial Intelligence, часто называемый Strong AI или Artificial General Intelligence, представляет собой уровень искусственного интеллекта, который обладает когнитивными способностями и интеллектуальными способностями, эквивалентными или даже превосходящими способности людей.

“В отличие от узких систем ИИ, которые предназначены для превосходства в конкретных задачах, GAI демонстрирует более полное понимание мира, способность рассуждать, учиться, адаптироваться и выполнять широкий спектр сложных задач без вмешательства человека.”

Следуя этой траектории, Гарретт утверждает, что нерегулируемый GAI уничтожит человеческую цивилизацию займет менее 200 лет и может приблизиться к 100 годам.

“В 2014 году Стивен Хокинг предупредил, что развитие ИИ может означать конец человечества, ” пишет Гаррет. “Его аргумент заключался в том, что как только люди разработают ИИ, он сможет развиваться независимо, перепроектируя себя с постоянно растущей скоростью. Совсем недавно последствия автономного принятия решений по ИИ привели к призывам к мораторию на развитие ИИ до тех пор, пока не будет введена ответственная форма контроля и регулирования.”

Гарретт также предупреждает: “В настоящее время ИИ, с которым мы сталкиваемся в повседневной жизни, в основном действует в рамках установленных человеком ограничений и целей. Тем не менее, наблюдается прогресс в создании систем, которые могут дополнять и оптимизировать различные аспекты собственного развития.

“На следующем этапе системы искусственного интеллекта будут самостоятельно внедрять инновации и совершенствовать свой собственный дизайн без вмешательства человека. Потенциал автономной работы ИИ порождает множество этических и моральных затруднений, но, конечно, это лишь вопрос времени, когда это произойдет.”

В заключение он пишет: “Темпы, с которыми продвигается ИИ, не имеют исторических параллелей, и существует реальная вероятность того, что ИИ сможет достичь уровня сверхразума в течение нескольких десятилетий.”

Прислушается ли когда-нибудь кто-нибудь, обладающий полномочиями вносить коррективы в глобальную политику, к его и многочисленным другим предупреждениям об опасностях нерегулируемого ИИ? Или их пророчества о конце света в конечном итоге сбудутся?

Первый в мире конкурс красоты для фейковых моделей искусственного интеллекта

ИИ-клон Рида Хоффмана настолько «человечен», что вытирает козявку со стола

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *