Новый «Манхэттенский проект» для ИИ: гонка США и Китая или угроза миру?

В ноябре 2024 года двухпартийная Комиссия по обзору экономики и безопасности США и Китая рекомендовала Конгрессу США учредить и профинансировать инициативу, сравнимую по масштабу с Манхэттенским проектом, который позволил США опередить другие страны в разработке атомной бомбы. Целью нового проекта должно стать сохранение лидерства в области искусственного интеллекта, в частности, путем достижения потенциала искусственного общего интеллекта (AGI), то есть систем, не уступающих человеку или превосходящих его.

Этот шаг был во многом продиктован опасениями, что Китай, ближайший конкурент Соединенных Штатов в разработке ИИ, сможет быстрее найти военное применение новым технологиям. С тех пор это предложение вызвало определенное сопротивление, поскольку некоторые эксперты высказывают беспокойство, что такой «Манхэттенский проект для ИИ» может, подобно своему историческому аналогу, привести к войне.

Наиболее серьезная критика идеи «Манхэттенского проекта для ИИ» прозвучала в документе под названием «Стратегия Суперинтеллекта», существующем в двух версиях. Первая, стандартная версия, представляет собой 12-страничный обзор аргументов авторов, в то время как 40-страничная вторая версия считается экспертной. Обе версии документа были написаны Дэном Хендриксом, директором Центра безопасности ИИ; Эриком Шмидтом, бывшим генеральным директором и председателем совета директоров Google; и Александром Вангом, основателем и генеральным директором Scale AI. Авторы неоднократно выступали в подкастах и других медиа, разъясняя идеи, изложенные в документе.

Дэн Хендрикс в подкасте Robert Wright NonZero объясняет, что странам следует придерживаться трехкомпонентной стратегии: сдерживание, нераспространение и конкурентоспособность.

Сдерживание обыгрывает выражение времен холодной войны «Взаимно гарантированное уничтожение», которое в документе трансформировалось во «Взаимно гарантированный сбой ИИ». Иными словами, осознание того, что другие страны могут атаковать любую державу, пытающуюся совершить резкий скачок в разработке AGI, должно удерживать страны от значительного опережения конкурентов.

Нераспространение подразумевает экспортный контроль над передовыми чипами для ИИ — не только в отношении крупных игроков, таких как Китай, но и в отношении «стран-изгоев», например, путем установки на чипы функций геолокации.

Конкурентоспособность охватывает такие факторы, как расширение цепочек поставок военной продукции (например, дронов), наращивание производства чипов за пределами Тайваня и — по аналогии с действиями США перед Второй мировой войной — повышение привлекательности страны для иностранных ученых, специализирующихся на ИИ. Дэн Хендрикс в нескольких подкастах, включая No Priors, признает, что последний пункт несет в себе обоюдоострый потенциал корпоративного шпионажа. Он утверждает, что до 30% сотрудников ведущих ИИ-компаний являются гражданами Китая. С другой стороны, если эти компании избавятся от китайских сотрудников, те, скорее всего, вернутся в Китай. Хендрикс подчеркивает, что они важны для успеха США.

Однако некоторые критики «Стратегии Суперинтеллекта» заявляют, что ее предложения не являются значительным улучшением. Кевин Фрейзер, научный сотрудник в области инноваций и права ИИ в Школе права Техасского университета в Остине, который брал интервью у Хендрикса для своего подкаста Lawfare Daily, отмечает, что связь между Манхэттенским проектом и ИИ наиболее активно обсуждалась в месяцы сразу после первоначального выпуска ChatGPT 3.5, когда люди осознали, что ИИ значительно опередил общественные ожидания. По его словам, понятной реакцией стал поиск аналогий с другими случаями, когда общество оказывалось застигнутым врасплох технологическим прорывом. Многие обратились к ядерной эре, поскольку, подобно ИИ, ядерная энергия является технологией двойного назначения, служащей как коммерческим, так и военным целям. С тех пор, по мнению Фрейзера, стремление копировать шаги атомной эры, такие как запуск Манхэттенского проекта, пошло на убыль.

Несколько критиков выразили особую обеспокоенность тем, что ограничения на экспорт чипов в Китай, которые поддерживаются как в первоначальном предложении о «Манхэттенском проекте для ИИ», так и в «Стратегии Суперинтеллекта», на самом деле с большей вероятностью могут привести к войне. Подкастер Роберт Райт указывает, что самые современные в мире ИИ-чипы производятся на заводах TSMC на Тайване, и американские ограничения на чипы означают, что Китай больше не может получать эти чипы (за исключением «черного рынка»), в то время как США и их союзники получают их в большом количестве. Таким образом, то, что раньше служило сдерживающим фактором для китайского вторжения — вероятность того, что война выведет из строя заводы, чья самая ценная продукция доставалась и Китаю, — теперь является гораздо меньшим сдерживающим фактором. Сам Хендрикс признал этот момент в подкасте No Priors.

Вместо этого критики предпочитают текущие пути развития ИИ, а не монолитный государственно-частный проект. Уильям Хартунг, старший научный сотрудник Института ответственного государственного управления Куинси, вашингтонского аналитического центра по внешней политике, говорит, что мы уже довольно далеко продвинулись с децентрализованным развитием благодаря стартапам и венчурным капиталистам. Он напоминает, что Манхэттенский проект был жестко централизован сверху донизу, что было необходимо в тот момент, но не является лучшим способом разработки новых технологий сегодня.

Кевин Фрейзер высказывает предположение, что люди осознали: объединение лучших и самых ярких экспертов по ИИ в закрытой обстановке может иметь непредвиденные последствия. Он проводит параллель с наследием Манхэттенского проекта, которое со временем становится все более неоднозначным, и считает, что есть сомнения в том, что аналогичный проект в области ИИ был бы однозначно позитивным — существует вероятность, что тайное сотрудничество может выйти из-под контроля или ему будет не хватать прозрачности, необходимой для завоевания общественного доверия.

Более того, в эпоху спутниковой фотосъемки было бы трудно скрыть такой проект. Экспертная версия «Стратегии Суперинтеллекта» предлагает строить центры обработки данных под землей, но признает, что это будет дороже, займет больше времени и усложнит их проектирование и обслуживание. В документе, однако, предлагается, подобно ракетным шахтам и командным центрам времен холодной войны, размещать центры обработки данных вдали от городов, чтобы избежать сопутствующего ущерба.

Несколько критиков заявили, что США и Китаю на самом деле следует вести диалог друг с другом. Роберт Райт подчеркивает, что США и Китаю необходимо срочно начать серьезный диалог об ИИ, договориться о некоторых «правилах игры» и совместно попытаться направить мир к определенной степени кооперативного управления технологией, обладающей беспрецедентными потенциальными выгодами и беспрецедентными потенциальными опасностями.

В нынешнем политическом климате это может оказаться легче сказать, чем сделать. Кевин Фрейзер отмечает, что взаимные инспекции являются одним из подходов к повышению прозрачности в отношении потенциала ИИ. Однако, по его мнению, текущая геополитическая напряженность предполагает, что Китай и США вряд ли пойдут на такой шаг. Более вероятным сценарием он считает привлечение третьей стороны, признанной как США, так и Китаем, для проведения таких оценок. Фрейзер не уверен, какая именно сторона могла бы заслужить их доверие, но подозревает, что независимая организация имеет больше шансов способствовать повышению уровня открытости и раскрытия информации.

Также возник вопрос о том, является ли AGI правильным направлением развития. Кевин Фрейзер считает, что мы нуждаемся не в каком-то теоретически обоснованном проекте, а, скорее, в проекте, гиперспецифичном к тому, как ИИ повлияет на конкретные отрасли и задачи, и когда это, вероятно, произойдет. По его словам, такие практические усилия помогли бы обществу адаптироваться к грядущим изменениям, стимулировать инновации и реформировать устаревшие институты и законы. Общественность, по его мнению, по праву остается в неведении относительно того, окажет ли ИИ положительное или отрицательное влияние на их жизнь и жизнь их детей. Фрейзер убежден, что ИИ способен создать более процветающее и инновационное общество, но достижение такого будущего зависит от того, будут ли умные люди задавать очень конкретные и практические вопросы, а не спорить о том, что представляет собой AGI.

Уильям Хартунг добавляет, что у него есть вопросы ко всей идее сделать это нашим главным приоритетом. Он может назвать множество других национальных миссий, которые считает более важными, таких как борьба с изменением климата, предотвращение пандемий и создание возможностей для молодежи с целью сокращения эпидемий наркомании и самоубийств. Хартунг ставит эти задачи выше, чем вливание денег в милитаризацию ИИ.

 

Новое поколение ИИ от OpenAI: o3 и o4-mini ускоряют инновации

ИИ не может прочитать часы: новые данные о пределах искусственного интеллекта

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *