Когда ИИ теряет нить: Почему агенты перестают понимать вопросы

Автор: Денис Аветисян


Новое исследование выявило проблему «шаблонного коллапса» в многоходовых системах обучения с подкреплением, когда искусственный интеллект генерирует разнообразные, но бессмысленные ответы.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Прослеживаемое сокращение длины рассуждений в восьми различных средах демонстрирует систематическое сжатие, выступающее в качестве поведенческого признака коллапса шаблонов.
Прослеживаемое сокращение длины рассуждений в восьми различных средах демонстрирует систематическое сжатие, выступающее в качестве поведенческого признака коллапса шаблонов.

В статье предложен фреймворк диагностики и метод фильтрации, основанный на взаимной информации и отношении сигнал/шум, для решения проблемы коллапса шаблонов в агентах, работающих по принципу обучения с подкреплением.

Оценка стабильности рассуждений в обучении с подкреплением многоходовых агентов на основе энтропии может быть обманчива, поскольку не отражает чувствительность к различным входным данным. В работе ‘RAGEN-2: Reasoning Collapse in Agentic RL’ выявлено явление “шаблонного коллапса”, когда модели генерируют разнообразные, но не зависящие от контекста ответы. Авторы предлагают декомпозицию качества рассуждений на внутривходное разнообразие (энтропию) и межвходную различимость (взаимную информацию), а также метод SNR-aware фильтрации для повышения чувствительности к входным данным. Может ли предложенный подход к оценке и коррекции качества рассуждений значительно улучшить производительность и надежность агентов, обученных с подкреплением?


Нестабильность Рассуждений: Когда Логика Теряет След

Обучение агентов с подкреплением для сложных, многошаговых взаимодействий представляет собой значительные трудности из-за присущей этому процессу нестабильности. В отличие от задач с одношаговыми решениями, где агент сразу получает обратную связь, в многошаговых сценариях последствия каждого действия проявляются лишь спустя несколько ходов. Это приводит к тому, что оценка долгосрочной ценности действий становится гораздо сложнее, а незначительные ошибки на ранних этапах могут накапливаться и приводить к непредсказуемому поведению агента. Кроме того, пространство состояний в таких взаимодействиях экспоненциально растет с увеличением числа ходов, что затрудняет эффективное исследование и обучение агента. Поиск оптимальной стратегии требует баланса между исследованием новых действий и использованием уже известных, но в условиях нестабильности этот баланс нарушается, и агент может застрять в локальных оптимумах или демонстрировать нежелательное поведение, несмотря на успешное обучение на начальных этапах.

Исследования показывают, что стандартные метрики оценки производительности систем искусственного интеллекта, предназначенных для многошаговых рассуждений, зачастую не способны выявить критическую проблему, известную как «Коллапс Шаблона». Этот феномен проявляется в том, что модель перестает учитывать входные данные и начинает выдавать предсказуемые, шаблонные ответы, независимо от вопроса или контекста. По сути, система теряет способность к осмысленному анализу и переходит к простому воспроизведению заученных фраз или действий, создавая иллюзию успешной работы, в то время как реальная способность к рассуждению отсутствует. Такое поведение особенно опасно, поскольку не отражается в общепринятых показателях точности, что требует разработки новых методов диагностики и оценки стабильности моделей, способных к сложному многошаговому мышлению.

В процессе обучения наблюдается коллапс разнообразия подсказок (RV collapse), поскольку они стремятся к однородным структурам вознаграждения.
В процессе обучения наблюдается коллапс разнообразия подсказок (RV collapse), поскольку они стремятся к однородным структурам вознаграждения.

Диагностика Коллапса: Сигнал и Шум

Коллапс шаблонов (Template Collapse) возникает вследствие снижения отношения сигнал/шум, что приводит к ослаблению градиентов задачи и усилению влияния регуляризации. Снижение этого отношения означает, что полезный сигнал, определяющий направление обучения, становится менее выраженным по сравнению с шумом, обусловленным случайными факторами или нерелевантными особенностями входных данных. В результате, агент начинает опираться на поверхностные закономерности вместо реального рассуждения о задаче, что проявляется в уменьшении дисперсии оценщика градиента 1/RV(x) и затрудняет эффективное обучение. Усиление влияния регуляризации, в свою очередь, может приводить к дальнейшему подавлению полезного сигнала и усугублению проблемы.

Феномен “коллапса шаблона” эффективно диагностируется путем измерения зависимости рассуждений агента от входных данных с использованием “прокси-меры взаимной информации”. В ходе экспериментов наблюдалось последовательное увеличение значения данного прокси, что свидетельствует о возрастающей зависимости действий агента от конкретных входных примеров, а не от обобщенных принципов решения задачи. Увеличение прокси-меры взаимной информации указывает на то, что агент все больше фокусируется на поверхностных признаках входных данных, а не на существенных закономерностях, определяющих целевое поведение. Количественная оценка данной зависимости позволяет выявить моменты, когда рассуждения агента становятся чрезмерно чувствительными к входным данным и теряют способность к обобщению.

Низкое отношение сигнал/шум указывает на то, что агент полагается на поверхностные закономерности, а не на истинное рассуждение о задаче. Это проявляется в измеримом снижении дисперсии оценщика градиента, выражаемого как 1/RV(x). Снижение дисперсии указывает на то, что изменения во входных данных оказывают меньшее влияние на вычисленный градиент, что свидетельствует о том, что агент не чувствителен к важным признакам, определяющим задачу, и, следовательно, использует упрощенные, поверхностные стратегии для принятия решений. Таким образом, 1/RV(x) служит количественным показателем способности агента различать релевантные и нерелевантные признаки во входных данных.

Применение фильтрации при обучении позволяет предотвратить снижение точности извлечения информации и сохранить разнообразие рассуждений, при этом стратегия top-p SNR-Aware фильтрации демонстрирует наилучшие результаты по поддержанию как производительности задачи, так и разнообразия рассуждений, в отличие от обучения без фильтрации, где наблюдается коллапс шаблонов и снижение точности извлечения.
Применение фильтрации при обучении позволяет предотвратить снижение точности извлечения информации и сохранить разнообразие рассуждений, при этом стратегия top-p SNR-Aware фильтрации демонстрирует наилучшие результаты по поддержанию как производительности задачи, так и разнообразия рассуждений, в отличие от обучения без фильтрации, где наблюдается коллапс шаблонов и снижение точности извлечения.

Восстановление Сигнала Рассуждений: SNR-Фильтрация

Фильтрация по отношению сигнал/шум (SNR) решает проблему коллапса шаблонов (Template Collapse) путем приоритизации запросов, приводящих к высокой дисперсии вознаграждения. Этот подход эффективно усиливает сигнал, соответствующий рассуждениям агента, и демонстрирует улучшение процента успешного выполнения задач во всех протестированных средах. Фактически, данная фильтрация позволяет агенту концентрироваться на задачах, требующих истинного рассуждения, а не полагаться на заученные шаблоны ответов, что повышает общую эффективность обучения и генерации решений.

Применение фильтрации, ориентированной на сложные запросы, направлено на стимулирование процесса рассуждений у агента, а не на использование заученных шаблонов ответов. Когда агент сталкивается с задачами, требующими анализа и применения знаний, а не просто воспроизведения ранее усвоенных данных, он вынужден активно обрабатывать информацию и генерировать новые решения. Такой подход позволяет избежать «коллапса шаблонов», когда агент просто выдает наиболее вероятный ответ, основанный на статистических данных, без реального понимания задачи. Акцент на сложных запросах способствует более глубокому обучению и повышению способности агента к обобщению и решению новых, ранее не встречавшихся задач.

Фильтрация сигнала соотношения сигнал/шум (SNR) может быть внедрена без внесения изменений в базовый алгоритм обучения с подкреплением. Этот подход не требует модификации существующей архитектуры или параметров обучения, что упрощает его интеграцию в различные системы. Более того, применение данной техники фильтрации способствует поддержанию или снижению расхождения Кульбака-Лейблера (KL-дивергенции), что подтверждается данными, представленными в Приложении L, и свидетельствует о сохранении или улучшении стабильности обучения и предотвращении чрезмерной уверенности модели в своих ответах.

Для повышения стабильности обучения с подкреплением, предложенный алгоритм фильтрует траектории, отбирая только те, которые характеризуются низким разбросом вознаграждения (используемым в качестве оценки <span class="katex-eq" data-katex-display="false">SNR</span>), что позволяет избежать обновления политики на основе шумных данных без увеличения вычислительных затрат.
Для повышения стабильности обучения с подкреплением, предложенный алгоритм фильтрует траектории, отбирая только те, которые характеризуются низким разбросом вознаграждения (используемым в качестве оценки SNR), что позволяет избежать обновления политики на основе шумных данных без увеличения вычислительных затрат.

Усиление Стабильности: Алгоритмические Выборы

В рамках исследования были применены различные алгоритмы обучения с подкреплением — PPO, DAPO, GRPO и DrGRPO — в сочетании с языковой моделью Qwen2.5. Такой подход позволил объединить возможности глубокого обучения и обучения с подкреплением, что способствовало повышению эффективности и стабильности системы. Выбор данных алгоритмов обусловлен их способностью эффективно решать сложные задачи, требующие планирования и принятия решений в различных средах. Комбинация с Qwen2.5 позволила модели лучше понимать контекст задач и генерировать более оптимальные стратегии поведения, что особенно важно в задачах, требующих логического мышления и решения проблем.

Для стимулирования более полного исследования пространства решений и предотвращения преждевременной сходимости алгоритма к локальному оптимуму, применялись методы, такие как ‘EntropyBonus’ и ‘KLRegularization’. ‘EntropyBonus’ побуждает агента выбирать действия, которые максимизируют неопределенность, тем самым поощряя исследование новых стратегий. В свою очередь, ‘KLRegularization’ ограничивает отклонение политики агента от начальной, что обеспечивает стабильность обучения и предотвращает резкие изменения, которые могут привести к потере ценных знаний. В совокупности, эти методы способствуют более надежному и эффективному обучению, позволяя модели находить оптимальные решения в сложных задачах и обеспечивая устойчивость к случайным колебаниям в процессе обучения.

Исследования показали, что разработанные алгоритмические подходы демонстрируют высокую универсальность и эффективность в различных средах. Проверка проводилась на задачах, охватывающих широкий спектр сложности — от логических головоломок, таких как «Sokoban», и простых сред, вроде «FrozenLake», до сложных задач, требующих рассуждений и доказательств, представленных в «MetaMathQA», «Countdown» и «DeepCoder». Во всех этих средах наблюдалось устойчивое повышение процента успешного выполнения задач, что свидетельствует о способности предложенных методов к обобщению и адаптации к новым условиям. Полученные результаты подтверждают, что алгоритмы, основанные на усиленном обучении, способны существенно улучшить производительность языковых моделей в разнообразных областях применения.

Анализ дисперсии вознаграждения показывает, что норма градиента задачи монотонно возрастает с увеличением дисперсии, при этом даже при минимальной дисперсии сохраняются значительные градиенты, что подтверждает механизм отношения сигнал/шум в обоих алгоритмах, в то время как норма градиента регуляризатора (KL + энтропия) остается постоянной.
Анализ дисперсии вознаграждения показывает, что норма градиента задачи монотонно возрастает с увеличением дисперсии, при этом даже при минимальной дисперсии сохраняются значительные градиенты, что подтверждает механизм отношения сигнал/шум в обоих алгоритмах, в то время как норма градиента регуляризатора (KL + энтропия) остается постоянной.

Исследование демонстрирует, как агенты, стремясь к оптимизации в многоходовом обучении с подкреплением, могут прийти к упрощенным, не зависящим от входных данных ответам — так называемому ‘template collapse’. Это напоминает о склонности к излишней сложности, когда стремление к совершенству приводит к потере сути. Бертранд Рассел однажды заметил: «Чем больше я узнаю людей, тем больше я люблю собак». Эта мудрость перекликается с проблемой ‘template collapse’, ведь агенты, словно усложняя задачу, выбирают путь наименьшего сопротивления, отказываясь от глубокого анализа входных данных и выдавая шаблонные ответы вместо осмысленных решений. Авторы предлагают метрики, такие как взаимная информация и SNR, чтобы выявить и смягчить эту проблему, возвращая агентов к более разумному и адаптивному поведению.

Что Дальше?

Исследование феномена «коллапса шаблонов» в многоходовом обучении с подкреплением обнажает не столько техническую проблему, сколько закономерность. Стремление к диверсификации, освобожденное от необходимости осмысленного ответа на входные данные, оказывается лишь еще одним проявлением энтропийного принципа. Измерение взаимной информации и фильтрация, ориентированная на отношение сигнал/шум, представляют собой полезные инструменты диагностики, но не панацею. Вопрос не в том, как «починить» агента, а в том, как научить его различать истинный сигнал от случайного колебания.

Очевидным направлением дальнейших исследований представляется поиск более элегантных способов регуляризации, минимизирующих потребность в явном измерении и фильтрации. Возможно, ключ лежит не в усложнении архитектуры, а в ее упрощении — в отказе от избыточных параметров, приводящих к переобучению на ложных корреляциях. Истинное совершенство не в количестве возможных ответов, а в точности одного единственного.

В конечном счете, изучение «коллапса шаблонов» — это напоминание о том, что интеллект, лишенный смысла, превращается в пустое эхо. Задача состоит не в создании агентов, способных генерировать разнообразные ответы, а в создании агентов, способных понимать вопрос.


Оригинал статьи: https://arxiv.org/pdf/2604.06268.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-09 16:14