Обучение с подкреплением: как ускорить прогресс

Автор: Денис Аветисян


Новый подход к обучению с подкреплением на основе обратной связи от человека позволяет значительно повысить эффективность использования данных.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Эффективное исследование пространства состояний изменяет закон масштабирования, влияя на долю побед стратегии по сравнению с базовой, при увеличении объема обратной связи от человека, выраженного в количестве рассмотренных вариантов.
Эффективное исследование пространства состояний изменяет закон масштабирования, влияя на долю побед стратегии по сравнению с базовой, при увеличении объема обратной связи от человека, выраженного в количестве рассмотренных вариантов.

Комбинация онлайн-обучения, направляющих сигналов и неопределенности нейронных сетей обеспечивает более чем десятикратное увеличение эффективности по сравнению с офлайн-методами RLHF.

Обучение с подкреплением на основе обратной связи от человека (RLHF) традиционно требует огромных объемов размеченных данных для достижения высокой производительности. В работе ‘Efficient Exploration at Scale’ представлен онлайн-алгоритм, значительно повышающий эффективность RLHF за счет сочетания итеративного обновления моделей вознаграждения и языка, а также направленной разведки с использованием нейронных сетей, оценивающих неопределенность. Достигнутое более чем десятикратное снижение потребности в данных, по сравнению с офлайн RLHF, позволяет получить сопоставимые результаты, используя менее 20 тысяч разметок вместо 200 тысяч. Можно ли масштабировать предложенный подход до миллиона разметок и достичь тысячекратного улучшения эффективности, приблизив RLHF к более практической реализации?


Основы: Языковые модели и обратная связь от человека

Современные языковые модели, такие как Gemma 9B, демонстрируют впечатляющую способность генерировать текст, практически неотличимый от созданного человеком, в ответ на заданный запрос. Эта возможность обусловлена использованием глубоких нейронных сетей и огромных объемов текстовых данных, на которых модели обучаются. Они способны не просто воспроизводить информацию, но и адаптировать стиль, тон и структуру текста к конкретному запросу, создавая связные, логичные и часто креативные ответы. Благодаря этому, модели способны решать широкий спектр задач, от написания статей и ответов на вопросы до создания стихов и компьютерного кода, что делает их мощным инструментом в области обработки естественного языка.

Современные языковые модели, несмотря на впечатляющую способность генерировать текст, неотъемлемо нуждаются в направляющих сигналах, основанных на оценках людей, для соответствия ожиданиям и предпочтениям пользователей. Простое генерирование грамматически верного текста недостаточно; важно, чтобы сгенерированный контент был полезным, безопасным и соответствовал конкретным задачам. Именно поэтому сбор и анализ человеческих оценок, указывающих на желаемые качества ответа, является ключевым этапом обучения. Эти оценки, отражающие субъективные представления о качестве и релевантности, преобразуются в сигналы, которые модель использует для корректировки своих параметров и улучшения соответствия человеческим ожиданиям. Без такой обратной связи от людей, даже самые мощные языковые модели рискуют генерировать контент, который может быть неточным, предвзятым или просто не соответствовать потребностям пользователя.

Метод обучения с подкреплением на основе обратной связи от человека (RLHF) стал ключевым инструментом в процессе согласования языковых моделей с человеческими предпочтениями. В основе RLHF лежит идея использования оценок, предоставляемых людьми, для обучения модели вознаграждать желаемое поведение и избегать нежелательное. Сначала модель генерирует несколько вариантов ответа на заданный запрос, после чего люди оценивают эти ответы по различным критериям, таким как полезность, правдивость и безопасность. Эти оценки используются для обучения «модели вознаграждения», которая затем используется для обучения основной языковой модели с помощью алгоритмов обучения с подкреплением. Таким образом, RLHF позволяет не просто генерировать грамматически правильный текст, но и создавать ответы, которые соответствуют ожиданиям и ценностям человека, что значительно повышает качество и полезность языковых моделей.

Эффективное онлайн-обучение с подкреплением на основе обратной связи от человека (RLHF) требует как тщательно разработанной функции вознаграждения, так и позитивного стимулирования.
Эффективное онлайн-обучение с подкреплением на основе обратной связи от человека (RLHF) требует как тщательно разработанной функции вознаграждения, так и позитивного стимулирования.

Методы RLHF: Оффлайн, Периодический и Онлайн

Оффлайн RLHF предполагает сбор фиксированного набора данных, отражающего предпочтения людей, до начала обучения как модели вознаграждения (Reward Model), так и языковой модели. Этот подход подразумевает, что данные о предпочтениях собираются однократно и затем используются для обучения обеих моделей без дальнейшего взаимодействия с людьми в процессе обучения. Преимуществом оффлайн RLHF является его относительная простота и возможность избежать проблем со стабильностью, возникающих при онлайн-обучении. Однако, качество обучения напрямую зависит от репрезентативности и объема собранного набора данных, а также от точности аннотаций, отражающих предпочтения пользователей.

Периодический RLHF (Reinforcement Learning from Human Feedback) представляет собой итеративный процесс улучшения моделей, при котором обратная связь от людей собирается партиями и используется для последовательной доработки как модели вознаграждения, так и языковой модели. Этот подход обеспечивает компромисс между эффективностью использования данных и способностью к адаптации. Вместо сбора всего набора данных заранее (как в оффлайн RLHF) или непрерывного обновления после каждого взаимодействия (как в онлайн RLHF), периодический RLHF позволяет обучать модели на относительно небольших пакетах предпочтений, что снижает вычислительные затраты и упрощает процесс обучения. Каждая итерация включает в себя обучение модели вознаграждения на собранном пакете, затем использование этой модели для генерации данных для обучения языковой модели, и повторение этого цикла. Такой подход позволяет модели постепенно улучшать свою производительность, адаптируясь к меняющимся предпочтениям пользователей, без чрезмерной вычислительной нагрузки или риска нестабильности, характерных для онлайн-методов.

Онлайн RLHF предполагает непрерывное обновление моделей (языковой и модели вознаграждения) после получения каждого нового пакета обратной связи от человека. Такой подход позволяет осуществлять обучение в режиме реального времени, что потенциально приводит к более быстрой адаптации к изменяющимся предпочтениям пользователей. Однако, постоянное обновление моделей на основе новых данных несет в себе риски нестабильности процесса обучения, включая возможность резких изменений в поведении модели и снижение её общей производительности. Для смягчения этих рисков часто применяются методы регуляризации и ограничения скорости обучения.

Экстраполяция результатов показывает, что эффективное исследование позволяет достичь в 1000 раз большей эффективности использования данных по сравнению с офлайн RLHF при использовании 1 миллиона размеченных примеров, что описывается функцией <span class="katex-eq" data-katex-display="false">w(n) = 1 - 0.5(n/a)^{-b}</span>, где <i>a</i> и <i>b</i> - параметры модели.
Экстраполяция результатов показывает, что эффективное исследование позволяет достичь в 1000 раз большей эффективности использования данных по сравнению с офлайн RLHF при использовании 1 миллиона размеченных примеров, что описывается функцией w(n) = 1 - 0.5(n/a)^{-b}, где a и b — параметры модели.

Повышение эффективности исследования с помощью Information-Directed RLHF

Метод Information-Directed Exploration использует Эпистемическую Нейронную Сеть (Epistemic Neural Network) для моделирования неопределенности в оценке вознаграждения. Данная сеть позволяет количественно оценивать уровень уверенности модели в предсказании оптимального действия, основываясь на анализе распределения вероятностей предсказаний. Высокая неопределенность указывает на области пространства состояний, где модель нуждается в дополнительной информации для повышения точности оценки вознаграждения. Это позволяет целенаправленно выбирать наиболее информативные пары ответов для ручной разметки, фокусируясь на тех, где текущая модель демонстрирует наибольшую неуверенность в своих предсказаниях.

Метод Information-Directed Exploration использует количественную оценку неопределенности в оценке вознаграждения для целенаправленного отбора пар ответов, предназначенных для разметки человеком. Вместо случайного выбора, система идентифицирует те пары, которые, согласно модели неопределенности, наиболее информативны для улучшения политики. Это позволяет максимизировать ценность каждого примера обратной связи, поскольку разметка фокусируется на тех ответах, которые оказывают наибольшее влияние на снижение неопределенности и, следовательно, на обучение модели. В результате, требуется значительно меньше размеченных данных для достижения сопоставимых или превосходящих результатов по сравнению с традиционными методами обучения с подкреплением на основе обратной связи от человека (RLHF).

Для оценки информативности пар ответов, используемых в процессе обучения с подкреплением на основе обратной связи от человека (RLHF), применяется метрика дисперсии вероятности выбора (Choice Probability Variance). Данная метрика количественно оценивает неопределенность модели при выборе между альтернативными ответами. Более высокая дисперсия указывает на то, что модель испытывает затруднения в принятии решения, что свидетельствует о потенциальной информативности данной пары для обучения. На основе этой метрики осуществляется направленное исследование, позволяющее выбирать наиболее полезные для обучения примеры и, как следствие, значительно повышать эффективность использования данных обратной связи.

Применение целенаправленного исследования с использованием Information-Directed RLHF демонстрирует значительное повышение эффективности использования данных. Экспериментальные данные показывают, что метод достигает десятикратного увеличения эффективности на этапе обучения, требуя всего 20 тысяч выборов для достижения результатов, сопоставимых с offline RLHF, обученным на 200 тысячах выборов. Прогнозируется, что при увеличении объема данных до 1 миллиона выборов, этот прирост эффективности достигнет тысячикратного значения, что свидетельствует о существенном снижении требований к объему размеченных данных для достижения заданного уровня качества модели.

Нейронная сеть, обученная с использованием эпистемического подхода, обеспечивает более надежную оценку вознаграждения по сравнению со стандартной нейронной сетью.
Нейронная сеть, обученная с использованием эпистемического подхода, обеспечивает более надежную оценку вознаграждения по сравнению со стандартной нейронной сетью.

Стабилизация онлайн-обучения: Позитивный толчок

Обучение с подкреплением на основе обратной связи от человека (RLHF) в онлайн-режиме, несмотря на свой потенциал, часто сталкивается с проблемой нестабильности. В процессе непрерывного обучения модель может резко менять свою стратегию, приводя к ухудшению результатов и непредсказуемому поведению. Это происходит из-за того, что обновления модели происходят на основе постоянно меняющихся данных, что может привести к кумулятивным ошибкам и отклонениям от желаемой траектории обучения. Такая нестабильность требует разработки методов регуляризации, способных сглаживать процесс обучения и предотвращать резкие изменения в поведении модели, обеспечивая более надежное и предсказуемое обучение в динамической среде.

В процессе обучения с подкреплением на основе обратной связи от человека (RLHF) в онлайн-режиме, модель может демонстрировать нестабильность, резко меняя свою стратегию. Для предотвращения подобных скачков и обеспечения более плавного обучения, предлагается использовать так называемый “позитивный толчок” — добавление небольшого положительного скаляра к сигналам подкрепления. Этот простой прием действует как регуляризатор, сглаживая процесс обновления модели и препятствуя резким изменениям в ее поведении. По сути, “толчок” создает своего рода инерцию, позволяя модели сохранять некоторую стабильность и избегать катастрофического ухудшения результатов в ходе обучения. Такой подход позволяет модели продолжать исследовать пространство решений, не опасаясь мгновенного “провала” и обеспечивает более устойчивый процесс адаптации к обратной связи от человека.

В процессе онлайн-обучения с подкреплением на основе обратной связи от человека (RLHF) модель может столкнуться с проблемой резких изменений поведения, что негативно сказывается на стабильности обучения. Для предотвращения подобного эффекта, известного как “провал” модели, используется простой, но эффективный метод — добавление небольшого положительного скаляра к сигналам подкрепления. Этот прием, названный “позитивным толчком”, действует как регуляризатор, сглаживая процесс обучения и поддерживая необходимый уровень исследования. Благодаря ему модель не склонна к резким переменам, сохраняя способность к адаптации и избегая ситуаций, когда оптимизация приводит к ухудшению результатов. Таким образом, “позитивный толчок” обеспечивает более плавное и надежное обучение модели, позволяя ей эффективно осваивать новые навыки и улучшать свою производительность.

Сочетание стабилизации обучения с помощью “позитивного подталкивания” и продуманных стратегий исследования открывает новые возможности для онлайн обучения с подкреплением на основе обратной связи от человека (RLHF). Традиционно, онлайн RLHF сталкивается с проблемой нестабильности, когда модель, стремясь к оптимизации, может резко изменить свое поведение, приводя к ухудшению результатов. Однако, благодаря регуляризации, обеспечиваемой небольшим положительным сигналом, и одновременному стимулированию исследования новых решений, модель сохраняет баланс между использованием накопленного опыта и поиском инновационных подходов. Такой симбиоз позволяет не только избежать “провалов” в процессе обучения, но и полностью раскрыть потенциал RLHF, создавая системы, способные к непрерывному совершенствованию и адаптации к изменяющимся условиям.

Исследование демонстрирует, что эффективное обучение с подкреплением на основе обратной связи от человека требует не просто сбора данных, а их осмысленной разведки. Авторы предлагают подход, где неопределенность модели, выраженная эпистемическими нейронными сетями, направляет процесс обучения, позволяя агенту исследовать наиболее информативные области пространства состояний. Этот метод, значительно повышая эффективность использования данных, подтверждает давнюю идею Марвина Мински: «Наиболее значимые открытия происходят на границе известного и неизвестного». Каждая сложность требует алиби, и здесь сложность обучения с подкреплением упрощается за счет целенаправленного исследования, а не случайного блуждания.

Куда Дальше?

Улучшение эффективности сбора данных — не самоцель, а лишь снятие одного из многочисленных ограничений. Показанное здесь десятикратное увеличение скорости обучения, достигнутое комбинацией онлайн-подхода, коррекции сигнала вознаграждения и моделирования неопределённости, не отменяет фундаментальной сложности задачи. Остаётся вопрос: насколько адекватно текущие модели отражают истинную неопределённость, и не является ли кажущаяся эффективность результатом ловкого обмана, а не глубокого понимания?

Следующим шагом видится отказ от упрощённых моделей неопределённости. Эпистемические нейронные сети — лишь один из инструментов. Необходимо исследовать более сложные представления, учитывающие не только незнание, но и мета-незнание — то есть, неспособность определить, что неизвестно. И, возможно, признать, что некоторые задачи принципиально не поддаются эффективному обучению, и сосредоточиться на создании систем, способных честно признавать свою некомпетентность.

Очевидно, что дальнейшее увеличение масштаба моделей не решит всех проблем. Важнее — разработка принципиально новых подходов к обучению, основанных не на количестве данных, а на качестве понимания. Или, быть может, пришло время признать, что совершенство — это не пункт назначения, а бесконечный процесс приближения к недостижимому идеалу.


Оригинал статьи: https://arxiv.org/pdf/2603.17378.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-19 20:20