Новый ИИ от Microsoft: умные данные побеждают гигантские модели в логике

Недавний выпуск модели Phi-4-reasoning от Microsoft ставит под сомнение ключевое предположение в создании систем искусственного интеллекта, способных к логическому мышлению. С момента внедрения метода логических цепочек в 2022 году исследователи полагали, что для развитого мышления необходимы очень большие языковые модели с сотнями миллиардов параметров. Однако новая модель Microsoft с 14 миллиардами параметров, Phi-4-reasoning, опровергает это убеждение. Используя подход, ориентированный на данные, а не на чистую вычислительную мощность, модель достигает производительности, сравнимой с гораздо более крупными системами. Этот прорыв показывает, что ориентированный на данные подход может быть столь же эффективным для обучения моделей логическому мышлению, как и для традиционного обучения ИИ. Это открывает возможность для меньших моделей ИИ достигать развитого логического мышления, изменяя способ обучения моделей разработчиками ИИ, переходя от принципа «чем больше, тем лучше» к «чем лучше данные, тем лучше».

Традиционно метод логических цепочек стал стандартом для решения сложных задач в области искусственного интеллекта. Эта техника направляет языковые модели через пошаговое рассуждение, разбивая сложные проблемы на более мелкие, управляемые этапы. Она имитирует человеческое мышление, заставляя модели как бы «думать вслух» на естественном языке, прежде чем дать ответ. Однако эта способность имела важное ограничение: исследователи постоянно обнаруживали, что подсказки в виде цепочек рассуждений хорошо работают только с очень большими языковыми моделями. Способность к логическому мышлению, казалось, напрямую связана с размером модели, причем более крупные модели лучше справлялись со сложными задачами. Это привело к гонке вооружений в создании больших моделей мышления, где компании сосредоточились на превращении своих крупных языковых моделей в мощные машины для рассуждений. Идея включения способностей к рассуждению в модели ИИ в основном возникла из наблюдения, что большие языковые модели могут обучаться в контексте. Исследователи заметили, что когда моделям показывают примеры пошагового решения проблем, они учатся следовать этому шаблону для новых задач. Это привело к убеждению, что более крупные модели, обученные на огромных объемах данных, естественным образом развивают более продвинутое мышление. Прочная связь между размером модели и производительностью мышления стала общепринятой истиной, и команды вкладывали огромные ресурсы в масштабирование способностей к рассуждению с использованием обучения с подкреплением, полагая, что вычислительная мощность является ключом к продвинутому мышлению.

Рост популярности ИИ, ориентированного на данные, бросает вызов менталитету «чем больше, тем лучше». Этот подход смещает фокус с архитектуры модели на тщательную разработку данных, используемых для обучения систем ИИ. Вместо того чтобы рассматривать данные как фиксированный входной материал, методология, ориентированная на данные, видит в них материал, который можно улучшать и оптимизировать для повышения производительности ИИ. Эндрю Ын, один из лидеров в этой области, продвигает идею создания систематических инженерных практик для улучшения качества данных, а не только для корректировки кода или масштабирования моделей. Эта философия признает, что качество и курирование данных часто значат больше, чем размер модели. Компании, применяющие этот подход, демонстрируют, что меньшие, хорошо обученные модели могут превосходить более крупные, если они обучены на высококачественных, тщательно подготовленных наборах данных. Подход, ориентированный на данные, ставит другой вопрос: акцент делается на том, как можно улучшить данные, а не на том, как сделать модель больше. Это означает создание лучших наборов данных для обучения, улучшение качества данных и разработку систематического инжиниринга данных. В ИИ, ориентированном на данные, основное внимание уделяется пониманию того, что делает данные эффективными для конкретных задач, а не просто сбору большего их количества. Этот подход показал большие перспективы в обучении небольших, но мощных моделей ИИ с использованием малых наборов данных и значительно меньших вычислительных ресурсов. Модели Phi от Microsoft являются хорошим примером обучения малых языковых моделей с использованием такого подхода. Эти модели обучаются с помощью так называемого учебного плана, который в основном вдохновлен тем, как дети учатся на постепенно усложняющихся примерах. Изначально модели обучаются на простых примерах, которые затем постепенно заменяются более сложными. Microsoft создала набор данных на основе учебников, как объясняется в их научной работе под названием «Textbooks Are All You Need». Это помогло модели Phi-3 превзойти такие модели, как Gemma от Google и GPT 3.5, в задачах понимания языка, общих знаний, решения математических задач для начальной школы и ответов на медицинские вопросы. Несмотря на успех подхода, ориентированного на данные, способность к рассуждению обычно оставалась прерогативой крупных моделей ИИ, поскольку требует сложных закономерностей и знаний, которые легче улавливаются крупномасштабными системами. Однако это убеждение недавно было оспорено разработкой модели Phi-4-reasoning.

Модель Phi-4-reasoning демонстрирует, как подход, ориентированный на данные, может быть использован для обучения небольших моделей логическому мышлению. Модель была создана путем контролируемой доработки базовой модели Phi-4 на тщательно отобранных «обучающих» подсказках и примерах рассуждений, сгенерированных с помощью o3-mini от OpenAI. Основное внимание уделялось качеству и специфичности, а не размеру набора данных. Модель обучалась примерно на 1,4 миллионах высококачественных подсказок вместо миллиардов общих. Исследователи отфильтровали примеры, чтобы охватить различные уровни сложности и типы рассуждений, обеспечивая разнообразие. Такое тщательное курирование сделало каждый обучающий пример целенаправленным, обучая модель конкретным паттернам рассуждений, а не просто увеличивая объем данных. При контролируемой доработке модель обучается на полных демонстрациях рассуждений, включающих весь мыслительный процесс. Эти пошаговые цепочки рассуждений помогли модели научиться строить логические аргументы и систематически решать проблемы. Для дальнейшего усиления способностей модели к рассуждению она была дополнительно усовершенствована с помощью обучения с подкреплением примерно на 6000 высококачественных математических задачах с проверенными решениями. Это показывает, что даже небольшие объемы целенаправленного обучения с подкреплением могут значительно улучшить мышление применительно к хорошо курируемым данным.

Результаты доказывают эффективность такого подхода, ориентированного на данные. Phi-4-reasoning превосходит гораздо более крупные модели с открытым исходным кодом, такие как DeepSeek-R1-Distill-Llama-70B, и почти соответствует полной версии DeepSeek-R1, несмотря на значительно меньший размер. На тесте AIME 2025 (отборочный тур Математической олимпиады США) Phi-4-reasoning опережает DeepSeek-R1, которая имеет 671 миллиард параметров. Эти достижения выходят за рамки математики и распространяются на решение научных проблем, кодирование, алгоритмы, планирование и пространственные задачи. Улучшения, достигнутые благодаря тщательному курированию данных, хорошо переносятся на общие бенчмарки, что предполагает, что этот метод формирует фундаментальные навыки рассуждения, а не специфические для задач уловки. Phi-4-reasoning бросает вызов идее о том, что для развитого мышления требуются огромные вычислительные мощности. Модель с 14 миллиардами параметров может сравниться по производительности с моделями, в десятки раз большими, если ее обучить на тщательно курируемых данных. Эта эффективность имеет важные последствия для развертывания ИИ с функцией рассуждения там, где ресурсы ограничены.

Успех Phi-4-reasoning сигнализирует о сдвиге в том, как следует создавать модели ИИ для рассуждений. Вместо того чтобы сосредотачиваться в основном на увеличении размера модели, команды могут получить лучшие результаты, инвестируя в качество и курирование данных. Это делает продвинутое мышление более доступным для организаций, не обладающих огромными вычислительными бюджетами. Метод, ориентированный на данные, также открывает новые пути для исследований. Будущая работа может быть сосредоточена на поиске лучших обучающих подсказок, создании более богатых демонстраций рассуждений и понимании того, какие данные лучше всего способствуют мышлению. Эти направления могут оказаться более продуктивными, чем просто создание более крупных моделей. В более широком смысле, это может способствовать демократизации ИИ. Если меньшие модели, обученные на курируемых данных, могут сравниться с крупными, продвинутый ИИ становится доступным большему числу разработчиков и организаций. Это также может ускорить внедрение ИИ и инновации в областях, где очень большие модели непрактичны.

Модель Phi-4-reasoning устанавливает новый стандарт для разработки моделей логического мышления. Будущие системы ИИ, вероятно, будут сочетать тщательное курирование данных с архитектурными улучшениями. Такой подход признает, что важны как качество данных, так и дизайн модели, но улучшение данных может дать более быстрые и экономически эффективные результаты. Это также позволяет создавать специализированные модели мышления, обученные на данных конкретной области. Вместо универсальных гигантов команды смогут создавать сфокусированные модели, преуспевающие в определенных областях благодаря целенаправленному курированию данных. Это приведет к созданию более эффективного ИИ для конкретных применений. По мере развития ИИ уроки, извлеченные из Phi-4-reasoning, будут влиять не только на обучение моделей мышления, но и на разработку ИИ в целом. Успех курирования данных, преодолевающий ограничения размера, предполагает, что будущий прогресс заключается в сочетании инноваций в моделях с умным инжинирингом данных, а не только в создании более крупных архитектур.

В итоге, Phi-4-reasoning от Microsoft меняет распространенное убеждение, что для развитого логического мышления ИИ необходимы очень большие модели. Вместо того чтобы полагаться на больший размер, эта модель использует подход, ориентированный на данные, с высококачественными и тщательно отобранными обучающими данными. Phi-4-reasoning имеет всего 14 миллиардов параметров, но показывает себя так же хорошо, как и гораздо более крупные модели, при решении сложных задач на рассуждение. Это показывает, что сосредоточение на лучших данных важнее, чем простое увеличение размера модели. Этот новый способ обучения делает продвинутый ИИ с функцией рассуждения более эффективным и доступным для организаций, не имеющих больших вычислительных ресурсов. Успех Phi-4-reasoning указывает на новое направление в разработке ИИ. Он фокусируется на улучшении качества данных, умном обучении и тщательном инжиниринге, а не только на увеличении моделей. Такой подход может помочь ИИ прогрессировать быстрее, снизить затраты и позволить большему числу людей и компаний использовать мощные инструменты ИИ. В будущем ИИ, вероятно, будет развиваться за счет сочетания лучших моделей с лучшими данными, делая продвинутый ИИ полезным во многих специализированных областях.

 

От Gmail-ассистента до 3D-встреч: ИИ Google меняет рабочий процесс

Новый фреймворк AWS: точная оценка больших языковых моделей

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *