Оптимизация больших языковых моделей для работы на устройствах: новый подход

Автор: Денис Аветисян


Исследователи разработали метод адаптивной квантизации, позволяющий значительно снизить вычислительные затраты и энергопотребление при использовании мощных языковых моделей на мобильных и встраиваемых устройствах.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
В рамках RAMP, оценка квантованной модели осуществляется по трем ключевым показателям - перплексии, объему занимаемой памяти и стабильности активаций - которые агрегируются в единую скалярную награду, позволяющую оптимизировать качество модели при строгом соблюдении заданного битового бюджета.
В рамках RAMP, оценка квантованной модели осуществляется по трем ключевым показателям — перплексии, объему занимаемой памяти и стабильности активаций — которые агрегируются в единую скалярную награду, позволяющую оптимизировать качество модели при строгом соблюдении заданного битового бюджета.

Представлена RAMP — платформа, использующая обучение с подкреплением для выработки эффективной смешанной точности квантования больших языковых моделей с минимальной потерей точности.

Несмотря на значительные успехи в области больших языковых моделей (LLM), их развертывание на устройствах с ограниченными ресурсами остается сложной задачей. В настоящей работе, посвященной ‘RAMP: Reinforcement Adaptive Mixed Precision Quantization for Efficient On Device LLM Inference’, предложен инновационный подход к квантованию моделей, основанный на обучении с подкреплением и адаптивной смешанной точности. Ключевым результатом является разработка фреймворка RAMP, способного находить оптимальные политики квантования для каждого слоя, минимизируя перплексию при заданном бюджете битов и обеспечивая перенос политики между различными архитектурами LLM. Не приведет ли это к созданию действительно компактных и эффективных LLM, доступных на широком спектре устройств?


Эффективность и Ограничения Больших Языковых Моделей

Современные большие языковые модели, демонстрирующие впечатляющие возможности в обработке и генерации текста, сталкиваются с серьезными ограничениями в практическом применении. Несмотря на свою эффективность, их огромный размер и соответствующие вычислительные требования делают развертывание на устройствах с ограниченными ресурсами — смартфонах, встраиваемых системах, и даже на серверах с умеренной мощностью — проблематичным. Эта сложность обусловлена потребностью в значительном объеме памяти для хранения параметров модели и высокими затратами на выполнение вычислений, необходимых для обработки каждого запроса. В результате, потенциал этих моделей остается нереализованным для широкого спектра приложений, требующих локальной обработки данных и оперативной реакции.

Традиционные методы квантования, такие как равномерное квантование, часто приводят к неприемлемой потере точности при агрессивном сжатии больших языковых моделей. Суть проблемы заключается в том, что при значительном уменьшении разрядности представления весов и активаций, информация, необходимая для поддержания высокой производительности, теряется. Равномерное квантование, распределяя уровни квантования равномерно по диапазону значений, не учитывает распределение данных в модели. В результате, важные детали, влияющие на точность предсказаний, могут быть утеряны, особенно в тех областях весов, где наблюдается высокая дисперсия. Это приводит к снижению качества генерации текста, ухудшению понимания запросов и, в конечном итоге, к снижению общей эффективности модели, что делает её непригодной для использования в ресурсоограниченных средах.

Эффективное применение больших языковых моделей (БЯМ) сталкивается с серьезным препятствием — потребностью в значительных вычислительных ресурсах. Поэтому разработка инновационных методов сжатия моделей, не приводящих к существенной потере точности, является ключевой задачей. Необходимость быстрой и экономичной работы БЯМ особенно важна для развертывания их на мобильных устройствах и в системах с ограниченными ресурсами. Исследования направлены на создание алгоритмов, способных существенно уменьшить размер модели и снизить требования к памяти и вычислительной мощности, сохраняя при этом ее способность генерировать качественные и релевантные ответы. Успешная реализация таких подходов откроет возможности для широкого распространения БЯМ и их интеграции в разнообразные приложения, доступные для большего числа пользователей.

На модели Llama-2-7B метод RAMP значительно превосходит равномерную 4-битную квантизацию по показателю перплексии.
На модели Llama-2-7B метод RAMP значительно превосходит равномерную 4-битную квантизацию по показателю перплексии.

RAMP: Обучение с Подкреплением для Адаптивной Квантизации

RAMP представляет собой новую структуру, основанную на обучении с подкреплением, разработанную для преодоления ограничений статических методов квантизации. Традиционные методы квантизации применяют единую стратегию снижения точности представления весов и активаций ко всем слоям нейронной сети, что может приводить к значительной потере точности. В отличие от них, RAMP динамически адаптирует уровень квантизации для каждого слоя индивидуально, используя алгоритм обучения с подкреплением для определения оптимальной битовой ширины, необходимой для поддержания требуемого уровня производительности и точности. Такой подход позволяет достичь более высокой степени сжатия модели при минимальных потерях в точности, делая его особенно полезным для развертывания больших языковых моделей (LLM) на устройствах с ограниченными ресурсами.

RAMP использует алгоритм обучения с подкреплением Soft Actor-Critic (SAC) для автоматического определения оптимального количества бит, выделяемых каждому слою большой языковой модели (LLM). В отличие от статических методов квантизации, SAC позволяет динамически адаптировать битовую ширину каждого слоя, максимизируя эффективность сжатия модели без существенной потери точности. Алгоритм обучается на основе обратной связи от производительности модели, стремясь найти конфигурацию квантизации, которая обеспечивает наилучший компромисс между размером модели и её способностью выполнять задачи. Это позволяет значительно уменьшить вычислительные затраты и требования к памяти, сохраняя при этом приемлемый уровень точности.

В рамках RAMP, для обеспечения обоснованных решений по квантованию, каждый слой большой языковой модели (LLM) представлен 11-мерным векторным представлением (Layer Embedding). Этот вектор включает в себя характеристики, такие как размерность входных и выходных данных, количество параметров, среднее значение и стандартное отклонение весов, а также статистику активаций. Использование 11-мерного вектора позволяет агенту обучения с подкреплением (RL) эффективно кодировать и учитывать специфику каждого слоя при определении оптимальной битовой ширины для квантования, что позволяет максимизировать эффективность модели без существенной потери точности. Такое представление позволяет RL-агенту учитывать как вычислительные, так и информационные свойства каждого слоя.

Конвейер RAMP автоматически оптимизирует модели машинного обучения, начиная с поиска стратегии смешанной точности с помощью агента Soft Actor-Critic, затем компилирует модель без использования ядер путем масштабирования и, наконец, квантует её слой за слоем, экспортируя в формат GGUF для развертывания.
Конвейер RAMP автоматически оптимизирует модели машинного обучения, начиная с поиска стратегии смешанной точности с помощью агента Soft Actor-Critic, затем компилирует модель без использования ядер путем масштабирования и, наконец, квантует её слой за слоем, экспортируя в формат GGUF для развертывания.

Стабилизация Квантизации с Помощью Сворачивания Шкалы

Квантование, процесс снижения точности представления чисел для уменьшения размера модели и ускорения вычислений, может быть затруднено наличием выбросов в активациях. Выбросы, представляющие собой экстремальные значения в выходных данных слоев нейронной сети, искажают распределение активаций и приводят к значительной потере точности при квантовании. Это происходит из-за того, что квантованные значения не могут адекватно представить широкий динамический диапазон, вызванный этими выбросами, что приводит к ошибкам округления и снижению производительности модели. Влияние выбросов особенно заметно при использовании низкоточных форматов квантования, где даже небольшие отклонения могут существенно повлиять на результат.

Метод Scale Folding решает проблему нестабильности квантования, вызванную выбросами в значениях активаций, путем предварительной обработки этих активаций. Суть подхода заключается в переносе величины этих экстремальных значений в веса модели. Это позволяет снизить динамический диапазон активаций, что, в свою очередь, повышает устойчивость процесса квантования и минимизирует потери точности, связанные с дискретизацией числовых значений. Фактически, Scale Folding перераспределяет информацию между активациями и весами, обеспечивая более эффективное представление данных в условиях ограниченной разрядности.

Эффективность метода Scale Folding была подтверждена посредством валидации на наборе данных WikiText-2. Использование WikiText-2 позволило оценить устойчивость метода к различным распределениям текста, демонстрируя его способность поддерживать высокую точность даже при обработке данных с отличающимися статистическими характеристиками. Набор данных включает в себя широкий спектр текстов, что обеспечивает надежную оценку обобщающей способности Scale Folding и его применимость к разнообразным задачам обработки естественного языка.

В ходе обучения наблюдается снижение перплексии, усредненной битовой глубины и увеличение награды по мере увеличения числа эпизодов.
В ходе обучения наблюдается снижение перплексии, усредненной битовой глубины и увеличение награды по мере увеличения числа эпизодов.

Развертывание и Перенос Знаний Между Архитектурами

Процесс HALO обеспечивает бесшовную экспорт RAMP-квантованных моделей в формат GGUF, что открывает возможности для эффективного инференса на широком спектре аппаратных платформ. Эта интеграция позволяет пользователям развертывать оптимизированные модели на различных устройствах, включая потребительские компьютеры и специализированное оборудование, без значительных потерь в производительности. Преобразование в GGUF упрощает процесс развертывания и обеспечивает совместимость с популярными инструментами и библиотеками для работы с большими языковыми моделями, тем самым расширяя доступность и практическое применение передовых технологий искусственного интеллекта.

Исследования, проведенные на моделях Llama-2-7B, Llama-2-13B и Mistral-7B, продемонстрировали высокую способность RAMP к эффективной передаче знаний между различными архитектурами больших языковых моделей. Данный подход позволяет применять оптимизированные веса, полученные на одной модели, к совершенно другим архитектурам без необходимости переобучения. Это открывает возможности для создания универсальных и адаптивных систем, способных эффективно функционировать на широком спектре аппаратных платформ и в различных задачах. Полученные результаты подтверждают, что RAMP не только оптимизирует модели для конкретного оборудования, но и обеспечивает гибкость и масштабируемость, позволяя легко переносить преимущества оптимизации на новые модели и архитектуры.

В ходе исследований продемонстрировано, что методика RAMP достигает показателя перплексии в 5.54 при размере модели 3.68GB на базе Llama-2-7B, превосходя результат AWQ (5.60 PPL при 3.90GB) и обеспечивая уменьшение размера на 6%. Более того, применение RAMP позволяет снизить выбросы углекислого газа на 66-75% при использовании потребительского оборудования по сравнению с облачными вычислениями на базе A100. Примечательно, что методика демонстрирует способность к обобщению и успешной работе с архитектурами Mistral-7B и Llama-2-13B без дополнительного обучения, что подтверждает её универсальность и эффективность в различных сценариях применения.

Для модели Llama-2-7B (содержащей 224 квантуемых линейных слоя) используется распределение битов RAMP для оптимизации квантования.
Для модели Llama-2-7B (содержащей 224 квантуемых линейных слоя) используется распределение битов RAMP для оптимизации квантования.

Исследование, представленное в данной работе, демонстрирует эволюционный подход к оптимизации больших языковых моделей. Авторы предлагают RAMP — систему, адаптирующуюся к изменяющимся условиям посредством обучения с подкреплением. Это напоминает о мудрости Дональда Кнута: «Прежде чем оптимизировать код, убедитесь, что он работает». Действительно, RAMP не просто стремится к сжатию моделей, но и обеспечивает сохранение их функциональности в различных аппаратных средах. Подход, основанный на смешанном представлении чисел, позволяет достичь оптимального баланса между точностью и эффективностью, что особенно важно для развертывания моделей на периферийных устройствах. Система RAMP, подобно живой архитектуре, постоянно эволюционирует, адаптируясь к новым требованиям и ограничениям.

Что дальше?

Представленный подход, несомненно, демонстрирует умение адаптировать системы к ограниченным ресурсам. Однако, каждый сбой — это сигнал времени. Успешная компрессия моделей — лишь временная победа над энтропией. Вопрос не в том, насколько плотно можно упаковать информацию, а в том, как долго эта упаковка останется жизнеспособной в меняющейся среде аппаратного обеспечения. Переносимость политик квантования, безусловно, ценна, но она не устраняет фундаментальную проблему: каждая архитектура, каждое новое поколение чипов, требует переосмысления стратегий сжатия.

Дальнейшие исследования неизбежно потребуют углубления в области обучения с подкреплением, поиска алгоритмов, способных к более эффективному исследованию пространства политик квантования. Интересным направлением представляется изучение мета-обучения, позволяющего моделям самостоятельно адаптироваться к новым аппаратным платформам, минимизируя необходимость в ручной настройке. Рефакторинг — это диалог с прошлым, но будущее потребует от нас способности предвидеть, а не просто реагировать.

В конечном итоге, задача заключается не в создании все более компактных моделей, а в разработке систем, способных к самовосстановлению и адаптации. Все системы стареют — вопрос лишь в том, делают ли они это достойно. Искусственное продление жизни модели посредством квантования — это лишь один из возможных путей, требующий постоянного внимания и переосмысления.


Оригинал статьи: https://arxiv.org/pdf/2603.17891.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-20 03:02