Рассуждения с Подкреплением: Новый Подход к Поиску Знаний

Автор: Денис Аветисян


Исследователи предлагают эффективный метод обучения больших языковых моделей рассуждать с использованием внешних источников знаний, значительно повышая точность и скорость обучения.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
При фиксированном начальном отрезке траектории <span class="katex-eq" data-katex-display="false">\tau < t</span>, разработанный метод групповой траекторной оптимизации (GRPO) локализует всю вариативность сэмплируемой группы на шаге <span class="katex-eq" data-katex-display="false">t</span>, обеспечивая более эффективный процесс оптимизации.
При фиксированном начальном отрезке траектории \tau < t, разработанный метод групповой траекторной оптимизации (GRPO) локализует всю вариативность сэмплируемой группы на шаге t, обеспечивая более эффективный процесс оптимизации.

В статье представлена платформа Slate, использующая усеченную выборку на уровне шагов и плотные награды, оцениваемые языковой моделью, для улучшения обучения с подкреплением и повышения эффективности использования данных.

Обучение больших языковых моделей использованию поисковых систем для рассуждений с подкреплением затруднено проблемой атрибуции вознаграждения: существующие методы предоставляют разреженный сигнал только после завершения всей траектории. В работе ‘Truncated Step-Level Sampling with Process Rewards for Retrieval-Augmented Reasoning’ предложен фреймворк SLATE, основанный на усеченном выборочном анализе шагов и плотных оценках, выдаваемых LLM в качестве эксперта, что позволяет более эффективно приписывать успех или неудачу отдельным этапам рассуждений и поиска. Теоретически доказано, что предложенный подход снижает дисперсию оценок преимущества до T раз по сравнению с полнотраекторным сэмплированием для траекторий длиной T. Может ли SLATE стать ключевым элементом в создании более надежных и эффективных систем рассуждений, основанных на внешних знаниях?


Сложность как Препятствие: Проблема Последовательного Рассуждения

Традиционное обучение с подкреплением сталкивается с серьезными трудностями в задачах, требующих последовательного, многошагового рассуждения. Основная проблема заключается в так называемой задаче кредитного присвоения. Суть ее в том, что при выполнении длинной последовательности действий, сложно определить, какие именно действия привели к конечному результату и, соответственно, какие из них заслуживают поощрения или наказания. Эта неопределенность затрудняет обучение агента, поскольку он не может эффективно связать свои действия с полученными наградами или штрафами. В результате, алгоритм может застрять в неоптимальных стратегиях, неспособный извлечь уроки из сложных последовательностей и эффективно решать задачи, требующие долгосрочного планирования и рассуждений.

Проектирование разреженных систем вознаграждения, несмотря на кажущуюся простоту, зачастую оказывается неэффективным при обучении агентов решению задач, требующих последовательных действий. Суть проблемы заключается в том, что редкие сигналы вознаграждения, поступающие лишь по завершении длительной последовательности действий, не предоставляют достаточной информации для эффективного обучения. Агент испытывает трудности в установлении связи между конкретными действиями и полученным результатом, что замедляет процесс обучения и снижает его эффективность. В результате, даже простые задачи, требующие планирования и последовательного выполнения шагов, становятся сложными для освоения, поскольку агент не получает достаточного “обратной связи” для коррекции своей стратегии и оптимизации поведения.

Возникновение этой фундаментальной проблемы является серьезным препятствием для создания искусственного интеллекта, способного к сложным логическим цепочкам и решению многоступенчатых задач. Неспособность эффективно распределять «награду» за действия, совершенные на ранних этапах длинной последовательности, приводит к тому, что агенты испытывают трудности в обучении и адаптации к новым, непростым ситуациям. Это ограничивает возможности ИИ в областях, требующих планирования, стратегического мышления и принятия решений на основе долгосрочных целей, существенно замедляя прогресс в разработке действительно «умных» систем, способных к самостоятельной деятельности и решению нетривиальных проблем.

Обучение с использованием Slate демонстрирует более быструю сходимость и стабильно более высокую награду по сравнению с алгоритмами Search-R1/GRPO и StepSearch/StePPO на модели Qwen2.5-7B-Base.
Обучение с использованием Slate демонстрирует более быструю сходимость и стабильно более высокую награду по сравнению с алгоритмами Search-R1/GRPO и StepSearch/StePPO на модели Qwen2.5-7B-Base.

Пошаговый Надзор: Плотность Вознаграждения как Путь к Успеху

Пошаговый надзор представляет собой подход к обучению с подкреплением, который решает проблему разреженных вознаграждений и упрощает задачу кредитного назначения. В традиционных системах агент получает вознаграждение только по завершении эпизода, что затрудняет определение конкретных действий, приведших к успеху или неудаче. Пошаговый надзор, напротив, предоставляет обратную связь на каждом шаге взаимодействия агента с окружающей средой. Это позволяет агенту оперативно корректировать свою стратегию и быстрее обучаться, поскольку связь между действиями и последствиями становится более явной и непосредственной. Такой подход особенно важен в сложных задачах, где разреженные вознаграждения делают обучение крайне неэффективным.

Методы, такие как StepSearch, используют принцип поэтапного контроля, формируя более информативный сигнал вознаграждения за счет оценки прироста информации на каждом шаге. Этот подход включает в себя вычисление информационного выигрыша от каждого действия и применение штрафов за избыточность, то есть за действия, которые не вносят существенного вклада в решение задачи. В результате формируется сигнал, который не только указывает на правильность или неправильность действия, но и отражает его ценность с точки зрения продвижения к цели, что существенно облегчает обучение агента и повышает эффективность процесса поиска оптимальной стратегии.

Детальная обратная связь на каждом шаге обучения агента играет ключевую роль в формировании эффективных стратегий рассуждения и принятия решений. Отсутствие немедленной оценки действий затрудняет процесс обучения, особенно в задачах с отложенным вознаграждением. Предоставление информации о качестве каждого выполненного действия позволяет агенту быстро идентифицировать успешные и неудачные шаги, что ускоряет процесс оптимизации политики. Это позволяет агенту строить более точные модели окружающей среды и прогнозировать последствия своих действий, что необходимо для решения сложных задач, требующих последовательного планирования и долгосрочной перспективы.

Slate: Сочетание Плотности и Эффективной Выборки

Slate — это новый фреймворк обучения с подкреплением, который объединяет метод усеченной выборки на уровне шагов с плотным вознаграждением, генерируемым моделью LLM-as-Judge. Усеченная выборка фокусируется на траекториях с общими префиксами, что позволяет повысить эффективность использования данных и снизить вычислительные затраты. LLM-as-Judge, в свою очередь, предоставляет высококачественный сигнал вознаграждения, оценивая этапы рассуждений и направляя улучшения политики. Такая комбинация позволяет эффективно обучаться и достигать надежных результатов в сложных последовательных задачах.

Метод усечённой выборки повышает эффективность использования данных и снижает вычислительные затраты за счёт концентрации на траекториях с общими префиксами. Вместо обработки полных траекторий, алгоритм фокусируется на начальных шагах, общих для множества возможных продолжений, что позволяет повторно использовать вычисления для этих общих префиксов. Это приводит к значительному сокращению количества токенов, необходимых для обучения — до 10 раз по сравнению с традиционными методами, что особенно важно при работе с большими языковыми моделями и сложными последовательными задачами.

Метод LLM-as-Judge обеспечивает формирование высококачественного, плотного сигнала вознаграждения, оценивая каждый шаг рассуждений модели. В отличие от разреженных наград, получаемых только по завершении последовательности, LLM-as-Judge предоставляет обратную связь после каждого шага, что позволяет более точно направлять процесс обучения. Оценка проводится на основе соответствия каждого шага логике решения задачи и его вклада в общий результат, что позволяет эффективно корректировать политику модели и улучшать ее производительность в сложных последовательных задачах. Плотный сигнал вознаграждения ускоряет обучение и повышает стабильность процесса оптимизации.

Комбинация метода усечённой выборки на уровне шагов и плотных вознаграждений, генерируемых LLM-as-Judge, обеспечивает эффективное обучение и стабильную производительность в сложных последовательных задачах. Экспериментальные результаты показывают, что данный подход достигает среднего значения EM (Exact Match) в 0.461 на семи различных наборах данных. Это демонстрирует способность системы к обобщению и успешному решению разнообразных задач, требующих последовательного принятия решений и оценки промежуточных результатов.

Оптимизация Политики с GRPO и За Его Пределами

Методы, такие как GRPO (Generalized Reinforcement Learning with Policy Optimization), опираются на фундаментальные принципы обучения с подкреплением, предоставляя структурированный подход к оптимизации политик, полученных посредством Slate. В основе этого лежит идея последовательного улучшения стратегий принятия решений путём взаимодействия с окружающей средой и получения обратной связи в виде вознаграждений. GRPO позволяет не просто находить оптимальные действия в конкретной ситуации, но и адаптировать политику к изменяющимся условиям, обеспечивая более устойчивое и эффективное поведение системы. Этот подход, интегрированный со Slate, создает синергетический эффект, позволяющий достигать значительных улучшений в задачах последовательного принятия решений, превосходя результаты традиционных алгоритмов, таких как Search-R1, и открывая новые возможности для применения в различных областях, от рекомендательных систем до управления сложными процессами.

Расхождение Кульбака-Лейблера D_{KL}(P||Q) играет ключевую роль в процессе обучения моделей, основанных на обучении с подкреплением, обеспечивая тонкий баланс между исследованием новых стратегий и использованием уже известных. Данная метрика позволяет контролировать степень отклонения текущей политики от предыдущей, предотвращая резкие и дестабилизирующие изменения, которые могут привести к катастрофическим сбоям в обучении. Внедрение ограничений на величину расхождения D_{KL} способствует более стабильному и надежному обучению, позволяя модели постепенно совершенствовать свою стратегию, избегая необдуманных рисков и обеспечивая устойчивый прогресс в решении поставленной задачи. Это особенно важно в сложных задачах последовательного принятия решений, где неконтролируемое исследование может привести к неоптимальным результатам и снижению общей производительности.

Взаимодействие Slate и алгоритмов робастного оптимизирования открывает новые возможности для повышения эффективности и обобщающей способности в задачах последовательного принятия решений. Исследования показывают, что Slate демонстрирует значительное улучшение результатов, достигая прироста в 3.0% в абсолютном выражении (или 7.0% в относительном) по сравнению с моделью Search-R1. Этот прогресс обусловлен способностью Slate более эффективно адаптироваться к меняющимся условиям и неопределенности, обеспечивая стабильно высокие показатели даже в сложных сценариях. Сочетание Slate с методами робастной оптимизации позволяет не только находить оптимальные решения, но и гарантировать их надежность и устойчивость к различным возмущениям, что делает систему более предсказуемой и эффективной в реальных условиях эксплуатации.

Интеграция механизма извлечения информации (Retrieval-Augmented Generation) и маскирования потерь токенов значительно улучшает процесс рассуждений и качество генерируемых решений. В ходе экспериментов с моделью Qwen2.5-7B-Base, система Slate продемонстрировала показатель EM (Exact Match) в 0.514 на датасете Musique, что на 5.1% превышает результат Search-R1, и 0.498 на Bamboogle, обеспечив прирост в 6.2%. Для модели Qwen2.5-3B-Base наблюдалось еще более существенное улучшение — относительный прирост производительности по сравнению с Search-R1 составил 30.7%, подтверждая эффективность предложенного подхода к оптимизации процесса принятия решений.

В представленной работе авторы стремятся к оптимизации процесса обучения больших языковых моделей, используя метод, который можно охарактеризовать как элегантную простоту. Подход, основанный на усеченном пошаговом сэмплировании и плотных наградах, позволяет снизить дисперсию и улучшить присвоение кредита, что, в свою очередь, повышает эффективность обучения. Это напоминает слова Тим Бернерс-Ли: «Веб должен быть для всех, и все должны иметь возможность вносить в него свой вклад». Так и здесь — стремление к более эффективному обучению языковых моделей открывает возможности для более широкого доступа к знаниям и технологиям, делая их более доступными и понятными. Упрощение сложного процесса — ключ к успеху.

Куда же дальше?

Представленная работа, стремясь к элегантности в обучении языковых моделей посредством внешних знаний, неизбежно обнажает новые области для сомнений. Улучшение эффективности выборки — это, конечно, добродетель, но сама идея «плотного» вознаграждения, генерируемого другой языковой моделью, требует пристального взгляда. Не превращается ли эта «плотность» в самообман, в усложнение, скрывающее истинную меру понимания? Какова устойчивость этого подхода к изменениям в базовой модели-судье? Не создает ли это зависимость, более хрупкую, чем кажется?

Следующий шаг, по-видимому, лежит в исследовании более строгих критериев оценки. Необходимо отделить реальное улучшение рассуждений от простого совпадения в оценках. Возможно, стоит обратить внимание на интеграцию с более надежными, хотя и менее «плотными», источниками обратной связи — например, с результатами, верифицированными человеком. Или, быть может, истинный прогресс заключается в отказе от попыток «научить» модель рассуждать, и сосредоточении на создании систем, способных эффективно использовать результаты чужих рассуждений, не претендуя на их воспроизведение?

Простота, как всегда, остается недостижимым идеалом. И в погоне за эффективностью необходимо помнить: сложность — это не признак глубины, а лишь признак нерешенных проблем. Каждый новый слой усложнения требует не меньше вопросов, чем ответов. И только ясность, достигнутая путем безжалостного отсеивания лишнего, может приблизить нас к истинному пониманию.


Оригинал статьи: https://arxiv.org/pdf/2602.23440.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-07 15:25