Как блокчейн выравнивает игровое поле для искусственного интеллекта

В отрасли, где доминируют коммерческие лаборатории искусственного интеллекта, технология блокчейн позволяет университетам получить более экономичный доступ к вычислениям и позволяет им конкурировать.

Стремительное развитие искусственного интеллекта привело к беспрецедентному разрыву между коммерческими и академическими исследованиями. В то время как технологические гиганты Кремниевой долины вкладывают миллиарды в разработку все более масштабных языковых моделей и сложных систем искусственного интеллекта, университетские лаборатории все чаще оказываются не в состоянии конкурировать. Это неравенство поднимает серьезные вопросы о будущем развития искусственного интеллекта и о том, кто будет его формировать.

Лаборатории искусственного интеллекта значительно расходуются

В последние годы коммерческие лаборатории значительно опередили академические институты в исследованиях ИИ. В 2021 году промышленные гиганты потратили более 340 миллиардов долларов на исследования и разработки в области ИИ по всему миру, что значительно превышает финансовые вливания правительств. Для сравнения, правительственные учреждения США (за исключением Министерства обороны) инвестировали 1,5 миллиарда долларов, в то время как Европейская комиссия выделила 1 миллиард евро (около 1,1 миллиарда долларов) на аналогичные цели.

Этот огромный разрыв в расходах дал коммерческим лабораториям явное преимущество, особенно в плане доступа к таким жизненно важным ресурсам, как вычислительные мощности, данные и талантливые специалисты. Благодаря этим активам компании лидируют в разработке передовых моделей искусственного интеллекта в масштабах, которым академические институты с трудом могут соответствовать. Промышленные модели искусственного интеллекта в среднем в 29 раз больше, чем те, что разрабатываются в университетах, что демонстрирует разительную разницу в ресурсах и возможностях.

Масштаб и сложность этих отраслевых моделей подчеркивают доминирующее положение коммерческих лабораторий в гонке за разработкой передовых технологий искусственного интеллекта, оставляя академические исследовательские лаборатории далеко позади.

Причины такого неравенства выходят за рамки простой экономики. В то время как коммерческие лаборатории искусственного интеллекта могут работать с долгосрочными перспективами и значительной устойчивостью к рискам, академическим исследователям приходится ориентироваться в сложных грантовых циклах, институциональной бюрократии и ограниченных бюджетах.

Возможно, что наиболее важно, академические учреждения часто не имеют доступа к мощной вычислительной инфраструктуре, необходимой для передовых исследований в области искусственного интеллекта. Обучение большим языковым моделям может стоить миллионы только вычислительных ресурсов, что является непомерно высокой стоимостью для большинства университетских кафедр. Это создает тревожную ситуацию, когда потенциально революционные исследовательские идеи могут так и не увидеть свет просто из-за высокой стоимости вычислений.

Эта стоимость растет в геометрической прогрессии. Одно исследование, проведенное Стэнфордским институтом интеллекта, ориентированного на человека, показало, что обучение OpenAI GPT-3 и Google PaLM обходятся менее чем в 10 миллионов долларов, в то время как самые последние GPT-4 и Google Gemini Ultra стоят 78 миллионов долларов и 191 миллион долларов соответственно. По оценкам, этот показатель, увеличивающийся в 10 раз в год, сохранится в течение следующих нескольких лет, а стоимость новых базовых моделей вскоре будет исчисляться миллиардами долларов.

Отчет Stanford HAI «Индекс искусственного интеллекта за 2024 год» подтверждает эту тенденцию, подчеркивая стремительный рост затрат на обучение моделей искусственного интеллекта, потенциальное истощение высококачественных данных, быстрое распространение базовых моделей и растущий переход к ИИ с открытым исходным кодом — все это факторы, которые еще больше укрепляют доминирование компаний с хорошими ресурсами и ставят перед ними сложные задачи. академические институты идут в ногу со временем.

Однако появляются новые решения, которые могут помочь выровнять условия игры. Инфраструктура распределенных вычислений, построенная на децентрализованной архитектуре, основанной на технологии блокчейн, начинает предлагать исследователям альтернативные пути доступа к высокопроизводительным вычислительным ресурсам с меньшими затратами по сравнению с традиционными. Эти сети объединяют неиспользуемые вычислительные мощности графических процессоров тысяч участников по всему миру, создавая общий пул ресурсов, доступ к которому возможен по запросу.

В децентрализованных сетях

Последние разработки в этой области являются многообещающими. Несколько крупных исследовательских университетов Южной Кореи, включая KAIST и Университет Йонсей, начали использовать Theta EdgeCloud, нашу децентрализованную вычислительную сеть, состоящую из более чем 30 000 распределенных по всему миру периферийных узлов, для исследований в области искусственного интеллекта, что позволяет получать результаты, сопоставимые с традиционными облачными сервисами, при снижении затрат от половины до трети. Их первые успехи указывают на жизнеспособный путь продвижения вперед для других академических институтов, сталкивающихся с аналогичными ограничениями в ресурсах.

Последствия этого выходят далеко за рамки экономии средств. Когда академические исследователи могут более эффективно конкурировать с коммерческими лабораториями, это помогает обеспечить преимущества разработки ИИ с различных точек зрения и подходов. Университетские исследования, как правило, ставят во главу угла прозрачность, экспертную оценку и общественное благо, а не коммерческие интересы в виде моделей с открытым исходным кодом и общедоступных наборов данных — ценности, которые становятся все более важными по мере того, как системы ИИ становятся все более мощными и влиятельными в обществе.

Рассмотрим текущие дебаты о безопасности и этике ИИ. В то время как коммерческие лаборатории вынуждены быстро внедрять новые возможности монетизации, академические исследователи часто используют более взвешенные подходы, тщательно изучая потенциальные риски и влияние на общество. Однако эта важная работа требует значительных вычислительных ресурсов для тестирования и подтверждения мер безопасности и обработки огромных объемов данных. Более доступный доступ к вычислительным мощностям мог бы обеспечить проведение более всесторонних исследований и испытаний в области безопасности.

Мы также наблюдаем многообещающие разработки в области специализированных приложений ИИ, которые, возможно, не привлекут коммерческих инвестиций, но могут принести значительную пользу обществу. Исследователи из нескольких университетов используют распределенные вычислительные сети для разработки моделей ИИ для исследований редких заболеваний, климатологии и других общественно значимых приложений, которые могут не иметь четкого потенциала получения прибыли.

Открытость и транспарентность

Помимо вопроса о ресурсах, академические институты предлагают еще одно важное преимущество: прозрачность и подотчетность общественности в своих исследованиях. В то время как коммерческие лаборатории искусственного интеллекта, такие как OpenAI и Google Brain, проводят новаторские работы, их исследования часто проводятся в закрытой среде, где методологии, источники данных и отрицательные результаты могут быть полностью не раскрыты. Это не обязательно связано с каким–либо неправомерным поведением – запатентованные технологии и конкурентные преимущества являются законными интересами бизнеса, — но это создает ограничения на то, насколько тщательно их работа может быть изучена и одобрена более широким научным сообществом.

Академические исследования, напротив, основаны на других стимулах. Университеты, как правило, публикуют комплексные методологии, используют свои модели с открытым исходным кодом, делятся подробными результатами (включая неудачные эксперименты) и подвергают свою работу тщательной экспертной оценке. Такая открытость позволяет другим исследователям подтверждать результаты, использовать успешные подходы и извлекать уроки из неудачных. Например, когда исследователи KAIST AI недавно разработали усовершенствования для моделей Stable Diffusion с открытым исходным кодом, преобразующих текст в изображение, для приложений электронной коммерции виртуальной одежды, они опубликовали полную техническую документацию, общедоступные наборы обучающих данных и методологию, что позволило другим учреждениям повторить и усовершенствовать их работу.

Появляющиеся в настоящее время распределенные вычислительные сети могут помочь усилить эти преимущества академических исследований. По мере того как все больше университетов получат доступ к недорогим вычислительным мощностям, мы, вероятно, увидим увеличение числа воспроизводимых исследований, совместных проектов и внедрений с открытым исходным кодом. Многие южнокорейские и другие университеты по всему миру уже делятся своими моделями искусственного интеллекта и наборами данных через эти сети, создавая эффективный цикл инноваций и проверки.

Такое сочетание доступности вычислений и академической прозрачности может оказаться преобразующим. Когда исследователи могут позволить себе проводить амбициозные эксперименты с искусственным интеллектом и свободно делиться своими результатами, это ускоряет прогресс в этой области в целом.

+ There are no comments

Add yours