Ведущие американские компании в области искусственного интеллекта, OpenAI, Anthropic и Google, уведомили федеральное правительство о том, что технологическое лидерство США в сфере ИИ «не является значительным и сокращается» по мере того, как китайские модели, такие как Deepseek R1, демонстрируют растущие возможности. Об этом свидетельствуют документы, представленные правительству США в ответ на запрос информации о разработке Плана действий в области ИИ.
Эти недавние документы, датированные мартом 2025 года, подчеркивают насущные проблемы, связанные с рисками для национальной безопасности, экономической конкурентоспособностью и необходимостью создания стратегических нормативных рамок для сохранения лидерства США в разработке ИИ на фоне растущей глобальной конкуренции и поддерживаемого государством прогресса Китая в этой области. Anthropic и Google представили свои ответы 6 марта 2025 года, а OpenAI – 13 марта 2025 года.
Появление китайской модели Deepseek R1 вызвало серьезную обеспокоенность среди основных разработчиков ИИ в США, которые рассматривают ее не как превосходящую американские технологии, а как убедительное доказательство того, что технологический разрыв быстро сокращается.
OpenAI прямо предупреждает, что «Deepseek показывает, что наше лидерство не является значительным и сокращается», характеризуя модель как «одновременно субсидируемую государством, контролируемую государством и находящуюся в свободном доступе» – сочетание, которое они считают особенно угрожающим интересам США и глобальному развитию ИИ.
Согласно анализу OpenAI, Deepseek представляет риски, аналогичные тем, которые связаны с китайским телекоммуникационным гигантом Huawei. «Как и в случае с Huawei, существует значительный риск использования моделей DeepSeek в критически важных инфраструктурах и других сценариях использования с высоким уровнем риска, учитывая возможность того, что DeepSeek может быть принужден Коммунистической Партией Китая (КПК) манипулировать своими моделями с целью причинения вреда», – говорится в заявлении OpenAI.
Компания также выразила обеспокоенность по поводу конфиденциальности и безопасности данных, отметив, что китайские правила могут потребовать от Deepseek передачи пользовательских данных правительству. Это может позволить КПК разрабатывать более совершенные системы ИИ, соответствующие государственным интересам, одновременно ставя под угрозу неприкосновенность частной жизни.
Оценка Anthropic в значительной степени сосредоточена на последствиях для биобезопасности. Их оценка показала, что Deepseek R1 «соглашался отвечать на большинство вопросов о создании биологического оружия, даже если они были сформулированы с явно злым умыслом». Эта готовность предоставлять потенциально опасную информацию контрастирует с мерами безопасности, применяемыми ведущими американскими моделями.
«Хотя Америка сегодня сохраняет лидерство в области ИИ, DeepSeek показывает, что наше лидерство не является значительным и сокращается», – вторит Anthropic в своем собственном представлении, подчеркивая безотлагательность предупреждений.
Обе компании рассматривают конкуренцию в идеологических терминах: OpenAI описывает соревнование между «демократическим ИИ» под руководством Америки и китайским «автократическим, авторитарным ИИ». Они предполагают, что сообщаемая готовность Deepseek генерировать инструкции для «незаконных и вредоносных действий, таких как мошенничество с личными данными и кража интеллектуальной собственности», отражает принципиально разные этические подходы к разработке ИИ между двумя странами.
Появление Deepseek R1, несомненно, является важной вехой в глобальной гонке ИИ, демонстрируя растущие возможности Китая, несмотря на экспортный контроль США в отношении передовых полупроводников, и подчеркивая необходимость скоординированных действий правительства для сохранения американского лидерства в этой области.
В представленных материалах всех трех компаний подчеркиваются серьезные проблемы национальной безопасности, связанные с передовыми моделями ИИ, хотя они рассматривают эти риски под разными углами.
Предупреждения OpenAI в значительной степени сосредоточены на потенциальном влиянии КПК на китайские модели ИИ, такие как Deepseek. Компания подчеркивает, что китайские правила могут заставить Deepseek «скомпрометировать критически важную инфраструктуру и чувствительные приложения» и потребовать передачи пользовательских данных правительству. Этот обмен данными может способствовать разработке более сложных систем ИИ, соответствующих государственным интересам Китая, создавая как непосредственные проблемы конфиденциальности, так и долгосрочные угрозы безопасности.
Обеспокоенность Anthropic сосредоточена на рисках биобезопасности, создаваемых передовыми возможностями ИИ, независимо от страны их происхождения. В особенно тревожном заявлении Anthropic сообщила, что «наша последняя система, Claude 3.7 Sonnet, демонстрирует тревожные улучшения в своей способности поддерживать аспекты разработки биологического оружия». Это откровенное признание подчеркивает двойное назначение передовых систем ИИ и необходимость надежных мер безопасности.
Anthropic также выявила то, что они описывают как «нормативный пробел в ограничениях США на чипы», связанный с чипами Nvidia H20. Хотя эти чипы соответствуют сниженным требованиям к производительности для китайского экспорта, они «превосходны в генерации текста («выборке») – фундаментальном компоненте передовых методологий обучения с подкреплением, критически важных для текущих достижений в области возможностей передовых моделей». Anthropic призвала к «немедленным нормативным действиям» для устранения этой потенциальной уязвимости в существующих рамках экспортного контроля.
Google, признавая риски безопасности ИИ, выступает за более сбалансированный подход к экспортному контролю. Компания предупреждает, что действующие правила экспорта ИИ «могут подорвать цели экономической конкурентоспособности… налагая несоразмерные нагрузки на американских поставщиков облачных услуг». Вместо этого Google рекомендует «сбалансированный экспортный контроль, который защищает национальную безопасность, одновременно обеспечивая экспорт США и глобальные деловые операции».
Все три компании подчеркивают необходимость расширения возможностей правительства по оценке. Anthropic, в частности, призывает к созданию «потенциала федерального правительства для тестирования и оценки мощных моделей ИИ на предмет возможностей национальной безопасности», чтобы лучше понимать потенциальные злоупотребления со стороны противников. Это потребует сохранения и укрепления Института безопасности ИИ, поручения NIST разработать оценки безопасности и собрать группы междисциплинарных экспертов.
Потребности в инфраструктуре, особенно в энергии, становятся решающим фактором в поддержании лидерства США в области ИИ. Anthropic предупредила, что «к 2027 году для обучения одной передовой модели ИИ потребуются сетевые вычислительные кластеры, потребляющие примерно пять гигаватт энергии». Они предложили амбициозную национальную цель – построить к 2027 году дополнительные 50 гигаватт мощности, предназначенной специально для индустрии ИИ, наряду с мерами по упрощению выдачи разрешений и ускорению утверждения линий электропередач.
OpenAI вновь представляет конкуренцию как идеологическое состязание между «демократическим ИИ» и «автократическим, авторитарным ИИ», созданным КПК. Их видение «демократического ИИ» подчеркивает «свободный рынок, способствующий свободной и честной конкуренции» и «свободу для разработчиков и пользователей работать с нашими инструментами и управлять ими по своему усмотрению» в рамках соответствующих ограничений безопасности.
Все три компании предложили подробные рекомендации по сохранению лидерства США. Anthropic подчеркнула важность «укрепления американской экономической конкурентоспособности» и обеспечения того, чтобы «экономические выгоды, связанные с ИИ, широко распределялись по всему обществу». Они выступили за «обеспечение и расширение энергоснабжения США» в качестве критически важной предпосылки для сохранения разработки ИИ в пределах американских границ, предупредив, что нехватка энергии может вынудить разработчиков переехать за границу.
Google призвал к решительным действиям, чтобы «подстегнуть развитие ИИ в США», сосредоточив внимание на трех ключевых областях: инвестиции в ИИ, ускорение внедрения ИИ в правительстве и продвижение проинновационных подходов на международном уровне. Компания подчеркнула необходимость «скоординированных действий федеральных, государственных, местных органов власти и промышленности в отношении таких политик, как реформа передачи и выдачи разрешений для удовлетворения растущих потребностей в энергии», наряду со «сбалансированным экспортным контролем» и «продолжением финансирования фундаментальных исследований и разработок в области ИИ».
В представлении Google особо подчеркивается необходимость «проинновационной федеральной основы для ИИ», которая предотвратила бы появление лоскутного одеяла государственных норм, обеспечивая при этом доступ отрасли к открытым данным для обучения моделей. Их подход подчеркивает «целенаправленное, секторальное и основанное на оценке рисков управление и стандарты ИИ», а не широкое регулирование.
Единый федеральный подход к регулированию ИИ стал общей темой во всех представлениях. OpenAI предостерегла от «регуляторного арбитража, создаваемого отдельными американскими штатами», и предложила «целостный подход, обеспечивающий добровольное партнерство между федеральным правительством и частным сектором». Их структура предусматривает надзор со стороны Министерства торговли, возможно, через переосмысленный Институт безопасности ИИ США, обеспечивающий единую точку контакта для компаний, занимающихся ИИ, для взаимодействия с правительством по вопросам рисков безопасности.
Что касается экспортного контроля, OpenAI выступила за многоуровневую структуру, предназначенную для содействия внедрению американского ИИ в странах, придерживающихся демократических ценностей, при одновременном ограничении доступа для Китая и его союзников. Anthropic аналогичным образом призвала к «ужесточению экспортного контроля, чтобы расширить лидерство США в области ИИ» и «значительно повысить безопасность передовых лабораторий США» за счет расширения сотрудничества с разведывательными агентствами.
Вопросы авторского права и интеллектуальной собственности занимали видное место в рекомендациях как OpenAI, так и Google. OpenAI подчеркнула важность сохранения принципов добросовестного использования, позволяющих моделям ИИ обучаться на материалах, защищенных авторским правом, без подрыва коммерческой ценности существующих работ. Они предупредили, что чрезмерно строгие правила авторского права могут поставить американские фирмы, занимающиеся ИИ, в невыгодное положение по сравнению с китайскими конкурентами. Google поддержала эту точку зрения, выступая за «сбалансированные правила авторского права, такие как исключения для добросовестного использования и интеллектуального анализа текста и данных», которые они назвали «критически важными для того, чтобы системы ИИ могли учиться на основе предыдущих знаний и общедоступных данных».
Все три компании подчеркнули необходимость ускоренного внедрения технологий ИИ в правительстве. OpenAI призвала к «амбициозной стратегии внедрения в правительстве» для модернизации федеральных процессов и безопасного развертывания передовых инструментов ИИ. Они, в частности, рекомендовали устранить препятствия для внедрения ИИ, в том числе устаревшие процессы аккредитации, такие как FedRAMP, ограничительные полномочия по тестированию и негибкие процедуры закупок. Anthropic аналогичным образом выступила за «содействие быстрым закупкам ИИ в федеральном правительстве» для революционного преобразования операций и повышения национальной безопасности.
Google предложила «упростить устаревшие методы аккредитации, авторизации и закупок» в правительстве, чтобы ускорить внедрение ИИ. Они подчеркнули важность эффективных правил государственных закупок и улучшения совместимости облачных решений в правительстве для содействия инновациям.
Всеобъемлющие представления от этих ведущих компаний в области ИИ дают четкий сигнал: для сохранения американского лидерства в области искусственного интеллекта требуются скоординированные действия федерального правительства по многим направлениям – от развития инфраструктуры и нормативно-правовой базы до защиты национальной безопасности и модернизации правительства, – особенно в условиях усиления конкуренции со стороны Китая.