От подражания к пониманию: новый подход к обучению языковых моделей

Автор: Денис Аветисян


Исследователи предлагают метод, позволяющий искусственному интеллекту не просто копировать решения, но и учиться различать эффективные стратегии для решения сложных задач.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Обучение с подкреплением смешивает положительные и отрицательные сигналы, в то время как CAPO использует поэтапное обучение: сначала положительная имитация обеспечивает стабильность, а затем отрицательная дискриминация повышает обобщающую способность.
Обучение с подкреплением смешивает положительные и отрицательные сигналы, в то время как CAPO использует поэтапное обучение: сначала положительная имитация обеспечивает стабильность, а затем отрицательная дискриминация повышает обобщающую способность.

Предложена методика CAPO, использующая функцию преимущества в обучении с подкреплением для последовательного перехода от имитации к различению, что повышает обобщающую способность больших языковых моделей.

Несмотря на успехи обучения с подкреплением в повышении рассудительных способностей больших языковых моделей, неразборчивое смешение положительных и отрицательных сигналов на ранних этапах обучения может ограничивать прирост эффективности. В данной работе, ‘From Imitation to Discrimination: Toward A Generalized Curriculum Advantage Mechanism Enhancing Cross-Domain Reasoning Tasks’, предложен алгоритм CAPO — адаптивный механизм учебного плана, основанный на функции преимущества, который разделяет процесс обучения на этапы имитации и дискриминации. Такой подход позволяет сначала сформировать надежный фундамент, а затем развить способность к различению, что значительно улучшает обобщающую способность модели в сложных сценариях, включая математическое и мультимодальное рассуждение. Способно ли данное решение стать универсальной основой для оптимизации языковых моделей в различных областях?


Ловушка Поверхностного Обучения: Почему Большие Модели Застревают

Несмотря на впечатляющий прогресс в области больших языковых моделей, они зачастую испытывают трудности при решении сложных задач, требующих логического мышления. Исследования показывают, что модели демонстрируют ограниченную способность к обобщению, полагаясь преимущественно на распознавание поверхностных закономерностей в данных, а не на глубокое понимание принципов. Это проявляется в неспособности эффективно решать задачи, требующие экстраполяции знаний на новые, незнакомые ситуации, или делать логические выводы, основанные на неявной информации. Таким образом, несмотря на способность генерировать связные и грамматически правильные тексты, модели часто не демонстрируют настоящего «понимания» и склонны к ошибкам при столкновении со сложными логическими конструкциями и неоднозначными вопросами.

Несмотря на впечатляющий прогресс в области больших языковых моделей, дальнейшее простое увеличение их размера демонстрирует всё меньшую эффективность в решении задач, требующих сложного рассуждения. Традиционные подходы к масштабированию, основанные на увеличении количества параметров и объёма обучающих данных, приближаются к пределу своей полезности, что побуждает исследователей к поиску принципиально новых методов, способных наделить модели настоящими способностями к логическому мышлению. Акцент смещается с «грубой силы» к разработке более изящных алгоритмов и архитектур, позволяющих моделям эффективно использовать имеющуюся информацию и выстраивать последовательные цепочки рассуждений, а не просто воспроизводить заученные шаблоны. Поиск этих эффективных методов является ключевой задачей для дальнейшего развития искусственного интеллекта.

Существенная проблема, с которой сталкиваются большие языковые модели, заключается не в объеме знаний, а в способности эффективно использовать эту информацию и поддерживать контекст на протяжении всего процесса рассуждений. Исследования показывают, что модели часто терпят неудачу в задачах, требующих последовательного применения логики или экстраполяции знаний на новые ситуации, поскольку им трудно удерживать релевантную информацию в памяти и избегать отвлечений. Это указывает на необходимость разработки новых парадигм обучения, которые уделяют больше внимания не просто запоминанию фактов, а формированию способности к построению логических цепочек, выявлению скрытых связей и адаптации к изменяющимся условиям. Перспективные направления включают в себя обучение с подкреплением, методы обучения на основе контраста и разработку архитектур, способных к более эффективному управлению контекстом и долгосрочной памятью.

CAPO: Двухфазная Обучающая Стратегия для Улучшения Рассуждений

CAPO представляет собой новую структуру обучения с подкреплением, предназначенную для оптимизации языковых моделей в задачах рассуждения. Обучение организовано в два последовательных этапа. Первый этап, этап имитации, направлен на создание стабильной основы путем обучения модели воспроизведению успешных траекторий рассуждений. Второй этап, этап дискриминации, фокусируется на совершенствовании способности модели различать корректные рассуждения и ошибки, что способствует улучшению обобщающей способности и повышению надежности результатов. Такая двухфазная структура позволяет одновременно решать задачи стабильности и исследования при обучении, что обеспечивает более эффективное освоение навыков рассуждения языковой моделью.

Фаза имитации в CAPO использует положительные образцы преимуществ (Positive Advantage Samples) для создания стабильной основы обучения модели. Этот подход фокусируется на воспроизведении успешных траекторий рассуждений, отобранных на основе анализа успешных решений. Положительные образцы преимуществ представляют собой данные, демонстрирующие шаги, которые привели к правильному ответу, и используются для обучения модели предсказывать эти шаги. Применение этих образцов позволяет модели быстро освоить базовые паттерны рассуждений и установить надежную отправную точку для последующей оптимизации, что способствует повышению стабильности обучения и предотвращает отклонения от желаемого поведения.

Фаза дискриминации в рамках CAPO использует отрицательные примеры преимуществ (Negative Advantage Samples) для повышения способности модели различать корректные цепочки рассуждений и ошибки. В процессе обучения модели предъявляются не только успешные траектории решения задач, но и примеры ошибочных рассуждений, что позволяет ей выявлять и избегать распространенных логических ошибок. Это способствует улучшению обобщающей способности модели, позволяя ей более эффективно применять полученные знания к новым, ранее не встречавшимся задачам, и повышает надежность ее ответов.

Предлагаемый учебный план CAPO основан на компромиссе между дисперсией и смещением ($Variance-Bias Tradeoff$) и направлен на обеспечение как стабильности, так и исследовательской способности модели. Стабильность достигается за счет начального этапа обучения, фокусирующегося на успешных траекториях рассуждений. Исследовательская способность, в свою очередь, обеспечивается этапом дискриминации, который позволяет модели различать корректные и ошибочные рассуждения, повышая обобщающую способность. Результаты экспериментов демонстрируют улучшения в диапазоне от +1.7 до +4.0 баллов на моделях объемом 1.5B/7B параметров, что подтверждает эффективность данного подхода к обучению рассуждениям.

В отличие от GRPO, CAPO сначала формирует устойчивую базу с помощью обучения только на положительных примерах, а затем, после перехода к использованию отрицательных примеров, демонстрирует устойчивый рост энтропии и вознаграждения, что указывает на улучшенную обобщающую способность.
В отличие от GRPO, CAPO сначала формирует устойчивую базу с помощью обучения только на положительных примерах, а затем, после перехода к использованию отрицательных примеров, демонстрирует устойчивый рост энтропии и вознаграждения, что указывает на улучшенную обобщающую способность.

Преимущества как Сигнал Обратной Связи: Ключ к Оптимизации Политики

В CAPO, показатель «Преимущество» ($Advantage$) используется как ключевой сигнал обратной связи для обновления политики. Данный показатель количественно оценивает, насколько хорошо конкретная траектория рассуждений превосходит ожидаемый результат. Вычисление $Advantage$ основывается на разнице между фактической полученной наградой и базовой линией (baseline), представляющей собой оценку ожидаемой награды. Положительное значение $Advantage$ указывает на то, что траектория рассуждений была более успешной, чем ожидалось, и, следовательно, действия, предпринятые в рамках этой траектории, следует усилить при обновлении политики. Использование $Advantage$ позволяет более эффективно направлять процесс обучения, фокусируясь на действиях, которые приносят наибольшую пользу, и избегая ненужных исследований в областях с низкой ожидаемой наградой.

Оптимизация политики на основе сигналов преимущества в CAPO направлена на повышение эффективности стратегий рассуждений модели. Сигналы преимущества, представляющие собой количественную оценку отклонения траектории рассуждений от ожидаемого результата, используются для корректировки вероятностей выбора действий. Повышение вероятности действий, приводящих к положительному преимуществу, и снижение вероятности действий, приводящих к отрицательному, позволяет модели постепенно осваивать более продуктивные методы решения задач. Данный процесс приводит к улучшению способности модели генерировать логически обоснованные и корректные рассуждения, что в конечном итоге повышает общую производительность системы.

В основе процесса оптимизации в CAPO лежат алгоритмы обучения с подкреплением, такие как PPO (Proximal Policy Optimization) и GRPO (Generalized Robust Proximal Optimization). Для повышения эффективности эти алгоритмы используют методы оценки преимущества, в частности Generalized Advantage Estimation (GAE). GAE позволяет более точно оценить долгосрочное влияние действий, учитывая как непосредственные награды, так и будущие предсказания. Это достигается за счет взвешенного суммирования временных различий (Temporal Difference errors) с использованием параметра гамма ($\gamma$) для дисконтирования будущих наград и параметра лямбда ($\lambda$) для контроля смещения и дисперсии оценки преимущества. Использование GAE способствует более стабильному и быстрому обучению модели, позволяя ей эффективно осваивать оптимальные стратегии рассуждений.

Теорема о градиенте политики (Policy Gradient Theorem) предоставляет математическую основу для эффективного обновления политики модели на основе наблюдаемых преимуществ (advantages). Данная теорема устанавливает, что градиент ожидаемой награды по параметрам политики пропорционален ожиданию произведения преимущества и градиента логарифма вероятности действия, выбранного этой политикой. Формально, $ \nabla J(\theta) = E_{\tau \sim \pi_\theta} [\sum_{t=0}^T Q(s_t, a_t) \nabla_{a_t} \log \pi_\theta(a_t|s_t)]$, где $J(\theta)$ — ожидаемая награда, $\theta$ — параметры политики, а $Q(s_t, a_t)$ — функция ценности, оценивающая ожидаемую кумулятивную награду за выполнение действия $a_t$ в состоянии $s_t$. Использование этой теоремы позволяет напрямую оптимизировать политику, увеличивая вероятность действий, приводящих к высоким преимуществам, и уменьшая вероятность действий, приводящих к низким преимуществам.

Механизм CAPO обеспечивает стабильность и обобщающую способность за счет последовательного использования только положительных преимуществ на первом этапе и как положительных, так и отрицательных - на втором.
Механизм CAPO обеспечивает стабильность и обобщающую способность за счет последовательного использования только положительных преимуществ на первом этапе и как положительных, так и отрицательных — на втором.

Обобщающая Способность и Широкая Применимость CAPO

Исследования показали, что CAPO демонстрирует выдающуюся способность к обобщению, успешно применяя полученные навыки рассуждений к задачам и сценариям, которые не встречались в процессе обучения. Эта устойчивость к новым условиям, известная как обобщение вне распределения (Out-of-Distribution Generalization), позволяет системе эффективно решать разнообразные проблемы, даже если они значительно отличаются от тех, на которых она тренировалась. Такая способность особенно важна для создания интеллектуальных систем, способных адаптироваться к меняющимся условиям и решать непредсказуемые задачи, что открывает новые возможности для применения в различных областях, требующих гибкого и надежного принятия решений.

Архитектура CAPO демонстрирует значительную гибкость, успешно интегрируясь с различными большими языковыми моделями, включая DeepSeek-R1 и Kimi-1.5. Эта адаптивность подчеркивает широкую применимость подхода и его потенциал для улучшения возможностей рассуждения не только в конкретных моделях, но и в более широком спектре систем искусственного интеллекта. В отличие от методов, жестко привязанных к определенной архитектуре, CAPO обеспечивает возможность использования преимуществ различных языковых моделей, открывая путь к созданию более универсальных и эффективных систем, способных решать сложные задачи, требующие логического мышления и анализа информации.

Механизм CAPO раскрывает потенциал продвинутых способностей к рассуждению в различных языковых моделях благодаря эффективному использованию сигналов вознаграждения и оптимизации функции ценности действий. В основе подхода лежит принцип, согласно которому модель не просто выдает ответ, а последовательно выбирает действия, максимизирующие ожидаемое вознаграждение. Оптимизируя эту функцию, CAPO позволяет модели не только находить правильные ответы, но и демонстрировать последовательное, логически обоснованное мышление, что существенно улучшает ее способность решать сложные задачи, требующие многоступенчатого анализа и планирования. Такой подход позволяет эффективно использовать обратную связь и направлять процесс рассуждения, значительно повышая общую производительность и надежность языковой модели.

Результаты тестирования CAPO демонстрируют значительное повышение точности на различных эталонных задачах. На бенчмарке AIME24, при использовании 7B модели, CAPO достиг точности в 20.0, что превосходит предыдущий показатель в 16.7. Еще более впечатляющим является результат на AMC23 (7B модель), где точность возросла до 65.0, что представляет собой улучшение на 12.5 процентных пункта. Помимо этого, CAPO показал улучшение на 3.81% при решении задач, связанных с графическим пользовательским интерфейсом, а также увеличение точности на 3.8 пункта на бенчмарках ARC-C и GPQA-Diamond, подтверждая эффективность подхода и его способность к обобщению в различных областях применения.

Алгоритм CAPO демонстрирует повышенную устойчивость к изменениям в распределении данных, достигая средней точности 52.8% на двух стандартных бенчмарках и превосходя GRPO на 6.5%.
Алгоритм CAPO демонстрирует повышенную устойчивость к изменениям в распределении данных, достигая средней точности 52.8% на двух стандартных бенчмарках и превосходя GRPO на 6.5%.

Исследование представляет CAPO — подход, который, как и многие «революционные» идеи, вероятно, обернётся техническим долгом через пару месяцев. Авторы предлагают двухфазный процесс обучения — имитацию и дискриминацию — полагая, что это улучшит способность больших языковых моделей к рассуждению. Звучит неплохо, пока не придётся разбираться с тем, как это всё ломается в продакшене. Тим Бернерс-Ли однажды сказал: «Веб никогда не был разработан как самое безопасное место». И эта фраза, как нельзя лучше, отражает суть любого сложного проекта — безопасность, обобщение, да и вообще, работоспособность — это всегда иллюзия, особенно когда дело касается больших языковых моделей и их способности к обобщению. Тесты — это, конечно, хорошо, но скрипт, удаляющий данные в проде, всегда найдётся.

Что Дальше?

Предложенный подход, безусловно, добавляет ещё один уровень абстракции к и без того сложному процессу обучения больших языковых моделей. Механизм “имитации и дискриминации”, управляемый функцией преимущества, кажется элегантным на бумаге. Однако, следует помнить, что любой «улучшенный» алгоритм рано или поздно станет частью технического долга. Производство всегда найдет способ сломать даже самую изящную теорию, завалив модель данными, которые не были учтены в процессе обучения.

Основной вопрос остаётся открытым: насколько хорошо эта “обобщённая кривая обучения” масштабируется? Можно предположить, что увеличение объёма данных лишь усугубит проблему, требуя ещё более сложных механизмов контроля и отладки. Наша CI — это храм, в котором мы молимся, чтобы ничего не сломалось, и этот храм будет становиться всё более громоздким. Документация, как обычно, остаётся мифом, созданным менеджерами, чтобы успокоить самих себя.

Вместо погони за «универсальным» алгоритмом обобщения, возможно, стоит сосредоточиться на более прагматичных решениях: разработке инструментов для автоматического выявления и исправления ошибок, а также на создании более прозрачных и интерпретируемых моделей. В конце концов, даже самая мощная система машинного обучения — это всего лишь инструмент, и её эффективность определяется не столько алгоритмом, сколько умением использовать его правильно.


Оригинал статьи: https://arxiv.org/pdf/2512.02580.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2025-12-09 03:12