Мультимодальные модели: как сохранить точность при сжатии?

Автор: Денис Аветисян


Новый метод MASQuant позволяет эффективно уменьшить размер мультимодальных больших языковых моделей без существенной потери качества.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
В процессе мультимодального рассуждения в больших многомодальных моделях (MLLM) наблюдается неравномерное распределение активаций между различными модальностями, что приводит к снижению эффективности стандартных методов квантования (PTQ), игнорирующих важность визуальной информации; данная проблема решается посредством метода MASQuant, сочетающего в себе методы MAS и CMC для согласования факторов сглаживания и значительного повышения производительности PTQ, при этом функция потерь MBR (Modality Balanced Reconstruction Loss) обеспечивает сбалансированную реконструкцию модальностей.
В процессе мультимодального рассуждения в больших многомодальных моделях (MLLM) наблюдается неравномерное распределение активаций между различными модальностями, что приводит к снижению эффективности стандартных методов квантования (PTQ), игнорирующих важность визуальной информации; данная проблема решается посредством метода MASQuant, сочетающего в себе методы MAS и CMC для согласования факторов сглаживания и значительного повышения производительности PTQ, при этом функция потерь MBR (Modality Balanced Reconstruction Loss) обеспечивает сбалансированную реконструкцию модальностей.

Предложена техника пост-тренировочной квантизации, компенсирующая расхождения в активациях между различными модальностями и использующая адаптацию низкого ранга.

Пост-обучающая квантизация (PTQ) больших языковых моделей (LLM) демонстрирует значительный прогресс, однако ее применение к мультимодальным LLM сталкивается с существенными трудностями. В данной работе, посвященной разработке метода ‘MASQuant: Modality-Aware Smoothing Quantization for Multimodal Large Language Models’, анализируются проблемы выравнивания сглаживания и кросс-модальной вычислительной инвариантности. Предлагаемый подход MASQuant, основанный на адаптивном сглаживании для каждой модальности и компенсации с использованием сингулярного разложения, позволяет эффективно квантовать мультимодальные модели без значительной потери точности. Возможно ли дальнейшее улучшение методов квантизации для мультимодальных моделей за счет учета специфики различных типов данных и архитектур?


Элегантность Сжатия: Вызов Мультимодальных LLM

Мультимодальные большие языковые модели, такие как Qwen2.5-VL, демонстрируют стремительное развитие, открывая новые горизонты в обработке информации, включающей текст, изображения и другие форматы данных. Однако, этот прогресс сопряжен с существенной проблемой — экспоненциальным ростом размеров моделей. Несмотря на впечатляющие возможности, огромный объем параметров затрудняет их развертывание на ресурсоограниченных устройствах, таких как мобильные телефоны или встраиваемые системы, а также существенно увеличивает затраты на хранение и вычислительные мощности, необходимые для их функционирования. Поэтому, поиск эффективных методов сжатия моделей, сохраняющих при этом высокую точность и производительность, является ключевой задачей для широкого внедрения мультимодальных ИИ-систем.

Пост-тренировочная квантизация (PTQ) является ключевым методом сжатия больших мультимодальных языковых моделей, позволяющим значительно уменьшить их размер и вычислительные затраты. Однако, стандартные подходы к PTQ часто приводят к заметному снижению производительности. Это происходит из-за упрощений, вносимых при преобразовании параметров модели из высокой точности (например, 32-битной плавающей запятой) в более низкую (например, 8-битное целое число). Несмотря на то, что PTQ позволяет добиться значительной экономии памяти и ускорения инференса, потеря информации при квантизации неизбежно влияет на способность модели к обобщению и точности предсказаний, особенно в сложных мультимодальных задачах, где взаимодействие различных типов данных критически важно.

В процессе квантования больших мультимодальных языковых моделей, таких как Qwen2.5-VL, возникает проблема, известная как “несоответствие сглаживания”. Данное явление проявляется в том, что факторы сглаживания, применяемые для уменьшения размера модели, оказывают непропорциональное влияние на различные модальности данных — например, изображение и текст. В результате, одна модальность может быть существенно искажена, что приводит к снижению общей точности модели при обработке мультимодальных запросов. Это происходит из-за того, что стандартные методы квантования не учитывают различную чувствительность каждой модальности к потерям информации, вызванным сглаживанием, и не адаптируют параметры сглаживания индивидуально для каждой из них. Устранение данного несоответствия является ключевой задачей для эффективного сжатия мультимодальных моделей без значительной потери качества.

Результаты применения SmoothQuant к мультимодальным большим языковым моделям (Omni и VL) демонстрируют высокий процент унифицированных факторов сглаживания между различными модальностями.
Результаты применения SmoothQuant к мультимодальным большим языковым моделям (Omni и VL) демонстрируют высокий процент унифицированных факторов сглаживания между различными модальностями.

Модально-Зависимое Сглаживание: Целенаправленное Решение

Для устранения несоответствий при сглаживании, обусловленных различиями в типах данных, метод Modality-Aware Smoothing использует отдельные коэффициенты сглаживания для каждой модальности. Вместо применения единого коэффициента ко всем входным данным, этот подход позволяет независимо оптимизировать степень сглаживания для каждого типа входных данных, таких как текст, изображения или аудио. Это достигается путем анализа специфических характеристик каждой модальности и адаптации соответствующего коэффициента сглаживания для минимизации потерь информации и повышения общей точности модели.

Метод модально-зависимого сглаживания (Modality-Aware Smoothing) является развитием техники сглаживания по каналам (Channel-wise Smoothing). В отличие от последнего, который оперирует с отдельными каналами внутри одного типа данных, модально-зависимое сглаживание адаптировано для обработки мультимодальных данных. Это достигается путем применения отдельных факторов сглаживания к каждому типу модальности, что позволяет учитывать специфические характеристики каждого входного сигнала и эффективно решать задачу выравнивания сглаживания в мультимодальной среде. Таким образом, существующие преимущества сглаживания по каналам переносятся и расширяются для работы с более сложными данными.

Методы, такие как AWQ, SmoothQuant и MBQ, вносят вклад в оптимизацию факторов сглаживания для повышения точности квантованных моделей. AWQ (Activation-Aware Weight Quantization) фокусируется на минимизации потерь информации при квантовании весов, используя информацию об активациях. SmoothQuant применяет стратегию сглаживания для уменьшения чувствительности к шуму при квантовании, что позволяет использовать более низкие битовые представления без значительной потери точности. MBQ (Mixed Bit Quantization) использует разные уровни квантования для разных слоев модели, что позволяет добиться оптимального баланса между точностью и размером модели. Все эти подходы направлены на тонкую настройку факторов сглаживания для каждой модальности данных, что приводит к более эффективному и точному квантованию.

Индивидуальная настройка сглаживания для каждой модальности позволяет сохранить информацию, критически важную для каждого типа входных данных. В мультимодальных моделях, различные модальности (например, текст, изображение, звук) несут разную информацию и имеют различные характеристики. Применение единого коэффициента сглаживания ко всем модальностям может привести к потере значимой информации в одной или нескольких модальностях. Настройка отдельных коэффициентов сглаживания для каждой модальности позволяет оптимизировать процесс квантования, минимизируя потери информации и сохраняя точность модели для каждого типа входных данных. Это особенно важно в задачах, где вклад каждой модальности в итоговый результат различен.

При использовании квантования W4A6 для модели Qwen2.5-Omni-3B, применение независимой модальной сглаженности (MAS) обеспечивает более высокое отношение сигнал/шум (SQNR) по сравнению с подходом MBQ, использующим унифицированный коэффициент, оптимизированный реконструкцией баланса модальностей.
При использовании квантования W4A6 для модели Qwen2.5-Omni-3B, применение независимой модальной сглаженности (MAS) обеспечивает более высокое отношение сигнал/шум (SQNR) по сравнению с подходом MBQ, использующим унифицированный коэффициент, оптимизированный реконструкцией баланса модальностей.

Межмодальная Компенсация: Гармонизация Активаций

Компенсация между модальностями использует приближение низкоранговыми матрицами для решения проблемы различий в диапазонах активаций между различными модальностями данных. Суть подхода заключается в снижении размерности представлений, что позволяет уменьшить вычислительную сложность и объем памяти, необходимые для обработки информации. Это достигается за счет выявления и исключения избыточных или незначимых параметров в представлениях каждой модальности, что приводит к более компактному и эффективному представлению данных без существенной потери информации. Применение методов понижения размерности позволяет унифицировать представления различных модальностей, облегчая их совместную обработку и анализ.

В рамках данной системы используется отбеливание на основе сингулярного разложения (SVD) для нормализации активаций. Этот процесс включает в себя декорреляцию и масштабирование активаций каждой модальности, приводя их к единой шкале и нулевому среднему. Это позволяет более эффективно применять квантование к данным из разных модальностей, избегая доминирования модальностей с большими диапазонами активаций и обеспечивая сбалансированное представление информации во всех модальностях. Практически, отбеливание SVD преобразует исходные активации, удаляя избыточность и снижая корреляцию между признаками, что способствует повышению точности квантованной модели.

MASQuant представляет собой комплексный подход к постобработочной квантизации (PTQ), объединяющий два ключевых механизма: сглаживание с учетом модальности (Modality-Aware Smoothing) и компенсацию между модальностями (Cross-Modal Compensation). Сглаживание позволяет уменьшить чувствительность к квантованию за счет усреднения весов внутри каждой модальности, а компенсация — нормализовать диапазоны активаций между различными модальностями, используя аппроксимацию низкого ранга. Такая интеграция обеспечивает более устойчивое и эффективное квантование, позволяя добиться значительного уменьшения размера модели без существенной потери производительности.

Использование единого квантованного веса для представления информации из различных модальностей позволяет значительно снизить размер модели без существенной потери производительности. Данный подход, основанный на компенсации межмодальных различий, обеспечивает до 4-кратного уменьшения эффективного ранга по сравнению с базовой моделью. Это достигается за счет нормализации активаций и эффективного сжатия данных, что позволяет хранить и обрабатывать информацию из разных источников более компактно и эффективно, сохраняя при этом необходимую точность вычислений.

Представленная схема демонстрирует работу в условиях одновременной обработки текста и изображений, где матрицы низкого ранга, используемые в MASQuant, позволяют эффективно интегрировать данные в архитектуре MLP.
Представленная схема демонстрирует работу в условиях одновременной обработки текста и изображений, где матрицы низкого ранга, используемые в MASQuant, позволяют эффективно интегрировать данные в архитектуре MLP.

Проверка и Оценка на Мультимодальных Бенчмарках

Оценка на OmniBench наглядно демонстрирует эффективность MASQuant в сохранении точности после квантизации. Данный подход позволяет существенно снизить вычислительные затраты и объём памяти, необходимые для работы моделей, при этом минимизируя потерю качества. В ходе тестирования MASQuant показал способность поддерживать высокую производительность даже при значительном снижении разрядности, что особенно важно для развертывания моделей на устройствах с ограниченными ресурсами. Результаты, полученные на OmniBench, подтверждают, что MASQuant является перспективным решением для оптимизации моделей без существенной деградации их функциональности, открывая возможности для более широкого применения искусственного интеллекта в различных областях.

Для оценки эффективности разработанного подхода к квантованию, проводилось тестирование на популярных наборах данных для задач распознавания речи, таких как Wenetspeech и Librispeech. В качестве основной метрики для измерения качества работы моделей использовался коэффициент ошибок слов (Word Error Rate — WER), позволяющий количественно оценить количество неправильно распознанных слов. Использование этих наборов данных и метрик позволило провести объективное сравнение с существующими методами квантования и продемонстрировать значительное улучшение точности распознавания речи при сохранении высокой скорости вычислений.

В ходе оценки на наборе данных Librispeech, методика MASQuant продемонстрировала впечатляющие результаты в задаче автоматического распознавания речи. При использовании квантования W4A8, показатель Word Error Rate (WER) составил всего 3.8, что свидетельствует о высокой точности распознавания. Для сравнения, применение стандартного метода сглаживания (uniform smoothing) при тех же условиях привело к значительно более высокому WER — 77.4. Такое существенное снижение ошибки указывает на эффективность MASQuant в сохранении качества распознавания речи даже при значительном снижении точности представления данных, что делает его перспективным решением для ресурсоограниченных устройств и приложений, требующих высокой скорости обработки.

При оценке на наборе данных Wenetspeech, методика MASQuant продемонстрировала впечатляющие результаты, достигнув показателя Word Error Rate (WER) в 3.8 при использовании квантования W4A8. Это значительно превосходит результат в 94.2, полученный при применении стандартного равномерного сглаживания. Такое существенное улучшение указывает на эффективность MASQuant в сохранении качества распознавания речи даже при значительном снижении точности представления данных, что делает её перспективным решением для задач, требующих высокой производительности и ограниченных вычислительных ресурсов.

В ходе экспериментов продемонстрировано, что предложенный подход к квантованию позволяет сохранить производительность, близкую к оригинальной FP16 точности, на модели Qwen2.5-VL-3B. В частности, при использовании квантования W8A8, достигается показатель Perplexity (PPL) в 17.0, что свидетельствует о минимальной потере качества генерации. При этом, квантованная модель демонстрирует в 2.5 раза более высокую скорость работы по сравнению с FP16 версией, что открывает возможности для более эффективного использования ресурсов и ускорения процессов инференса. Данный результат подчеркивает перспективность подхода для развертывания больших языковых моделей на устройствах с ограниченными вычислительными возможностями.

Анализ деградации SQNR для Qwen2.5-Omni-3B при мультимодальном вводе, выполненный на 32 образцах из OmniBench, показал усредненное значение SQNR для каждого слоя.
Анализ деградации SQNR для Qwen2.5-Omni-3B при мультимодальном вводе, выполненный на 32 образцах из OmniBench, показал усредненное значение SQNR для каждого слоя.

Перспективы Развития: К Надежным и Эффективным MLLM

Перспективные исследования направлены на разработку адаптивных стратегий квантования, способных динамически изменять степень сжатия данных в зависимости от характеристик входной информации. В отличие от фиксированного квантования, такой подход позволяет более эффективно сохранять критически важные детали, обеспечивая повышенную точность и производительность мультимодальных больших языковых моделей (MLLM). Адаптивное квантование, регулируя степень сжатия для различных частей входных данных, потенциально может снизить потери информации, особенно в сложных и многообразных сценариях, где фиксированные параметры квантования оказываются неоптимальными. В результате, это открывает возможности для создания более компактных и эффективных MLLM, способных работать на устройствах с ограниченными ресурсами без значительной потери качества.

Исследование взаимодействия между обучением с учетом квантования (Quantization-Aware Training, QAT) и пост-тренировочным квантованием (Post-Training Quantization, PTQ) представляется перспективным направлением для повышения эффективности больших многомодальных моделей (MLLM). QAT, осуществляемое в процессе обучения, позволяет модели адаптироваться к пониженной точности, в то время как PTQ, применяемое к уже обученной модели, отличается простотой реализации. Комбинирование этих подходов, например, путем использования PTQ для доводки модели, предварительно обученной с QAT, или наоборот, может обеспечить оптимальный баланс между производительностью и точностью. Особое внимание уделяется разработке стратегий, позволяющих эффективно использовать преимущества обоих методов, минимизируя при этом потери информации, неизбежные при снижении разрядности представления данных. Подобный синергетический эффект может существенно улучшить показатели MLLM на различных задачах, расширяя область их практического применения.

Изучение эффективного ранга в процессе приближения посредством низкоранговых матриц представляет собой перспективное направление оптимизации снижения размерности в мультимодальных больших языковых моделях (MLLM). Эффективный ранг, отражающий истинное количество значимых параметров, позволяет более точно определить оптимальное количество компонентов для низкоранговой аппроксимации, избегая избыточного сжатия или потери критически важной информации. Исследования показывают, что точная оценка эффективного ранга может значительно улучшить производительность MLLM, снижая вычислительные затраты и требования к памяти без существенной потери точности. Более того, адаптивные методы определения эффективного ранга, учитывающие специфику входных данных и архитектуру модели, способны обеспечить ещё более значительный прирост эффективности и обобщающей способности MLLM в различных задачах.

Постоянное совершенствование существующих методов оптимизации больших многомодальных моделей (MLLM) открывает путь к реализации их полного потенциала. Улучшение алгоритмов квантования, исследование эффективных стратегий понижения размерности и адаптивное управление точностью обработки данных позволяют значительно снизить вычислительные затраты и требования к памяти. Это, в свою очередь, делает MLLM доступными для более широкого круга приложений, включая использование на мобильных устройствах, встраиваемых системах и в условиях ограниченных ресурсов. Развитие этих технологий способствует не только повышению производительности, но и расширению области применения MLLM в различных сферах, от обработки естественного языка и компьютерного зрения до робототехники и анализа данных.

Применение SVD-отбеливания снижает эффективные ранги матрицы <span class="katex-eq" data-katex-display="false">\Delta\mathbf{W}</span> по слоям, что приводит к улучшению SQNR при увеличении отношения рангов для моделей Qwen2.5-VL-3B и Qwen2.5-Omni-3B.
Применение SVD-отбеливания снижает эффективные ранги матрицы \Delta\mathbf{W} по слоям, что приводит к улучшению SQNR при увеличении отношения рангов для моделей Qwen2.5-VL-3B и Qwen2.5-Omni-3B.

Представленная работа демонстрирует элегантный подход к решению сложной проблемы квантования больших мультимодальных языковых моделей. Авторы предлагают метод MASQuant, который, подобно искусству рефакторинга, направлен на гармонизацию различных аспектов системы. Особое внимание уделяется проблеме ‘smoothing misalignment’ — несоответствию масштабов активаций между модальностями. Как отмечает Эндрю Ын: «Мы должны стремиться к созданию систем, которые не только эффективны, но и понятны». Именно эта понятность, интуитивность интерфейса между модальностями, достигается за счет использования специфичных для каждой модальности факторов сглаживания и компенсации низкого ранга, обеспечивая плавный переход и сохранение точности при квантовании.

Куда Ведет Этот Путь?

Представленная работа, безусловно, демонстрирует изящное решение проблемы квантования больших мультимодальных моделей. Однако, не стоит обманываться кажущейся простотой. Истинная элегантность заключается не в устранении симптомов, а в понимании первопричин. Проблема «сглаживающего расхождения» — лишь одно проявление более глубокой дисгармонии в архитектуре этих моделей. Будущие исследования должны сосредоточиться не только на компенсации различий между модальностями, но и на разработке принципиально новых подходов к их интеграции, где само понятие «модальность» утратит свою абсолютную значимость.

Особый интерес представляет вопрос о вычислительной инвариантности. Достижение эффективного квантования — это, конечно, хорошо, но что, если сама операция квантования, как и любое приближение, вносит неявные искажения в семантическое пространство модели? Необходимо тщательно исследовать влияние различных схем квантования на способность модели к обобщению и рассуждению. Иначе, мы рискуем создать иллюзию прогресса, замаскировав фундаментальные ограничения.

В конечном итоге, задача состоит не в том, чтобы заставить существующие модели работать быстрее, а в том, чтобы создать принципиально новые архитектуры, которые изначально будут спроектированы с учетом ограничений вычислительных ресурсов. Это требует смелого отказа от устоявшихся парадигм и готовности к риску. Иначе, мы обречены на бесконечную гонку за оптимизацией, где каждый новый шаг будет лишь временным облегчением.


Оригинал статьи: https://arxiv.org/pdf/2603.04800.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-06 15:55