Видео будущего: новый подход к генерации длинных роликов

Автор: Денис Аветисян


Исследователи представили ReHyAt — механизм рекуррентного гибридного внимания, позволяющий создавать продолжительные видео с сохранением высокого качества и значительным снижением вычислительных затрат.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Предложенная рекуррентная гибридная модель внимания демонстрирует снижение вычислительной сложности и задержки по сравнению с моделью Wan2.1 с полным softmax вниманием при увеличении длительности видео, что подтверждается качественным и количественным анализом на примере запроса «Кошка пьет воду» и достигается за счет использования 20 блоков ReHyAt.
Предложенная рекуррентная гибридная модель внимания демонстрирует снижение вычислительной сложности и задержки по сравнению с моделью Wan2.1 с полным softmax вниманием при увеличении длительности видео, что подтверждается качественным и количественным анализом на примере запроса «Кошка пьет воду» и достигается за счет использования 20 блоков ReHyAt.

Рекуррентное гибридное внимание для диффузионных трансформаторов позволяет эффективно генерировать длинные видео благодаря снижению вычислительной сложности и экономии памяти.

Несмотря на значительный прогресс в генерации видео с помощью диффузионных моделей, основанных на трансформерах, квадратичная сложность механизма внимания ограничивает масштабируемость для длинных последовательностей. В данной работе представлена ReHyAt — рекуррентная гибридная схема внимания, разработанная для видео диффузионных трансформеров. Предложенный подход сочетает в себе точность softmax внимания с эффективностью линейного внимания, обеспечивая рекуррентную переформулировку и постоянное использование памяти. Возможно ли с помощью ReHyAt открыть путь к практичной генерации длинных и высококачественных видео, а также к реализации таких моделей непосредственно на мобильных устройствах?


Квадратичная сложность: узкое место последовательного моделирования

Традиционные механизмы внимания, такие как Softmax Attention, демонстрируют впечатляющие возможности в моделировании последовательностей данных, однако их применение к длинным последовательностям серьезно ограничено из-за квадратичной сложности. Это означает, что вычислительные затраты, измеряемые в операциях с плавающей точкой (FLOPs), растут пропорционально квадрату длины последовательности. В результате, обработка длинных видео, объемных текстовых документов или геномных данных становится непомерно дорогой и требует огромных вычислительных ресурсов. Данное ограничение является фундаментальным препятствием в области последовательного моделирования, не позволяющим эффективно использовать контекст, растянутый на значительные расстояния, и стимулирующим поиск более эффективных альтернатив.

Вычислительные затраты, измеряемые в операциях с плавающей точкой (FLOPs), растут экспоненциально с увеличением длины последовательности. Это означает, что обработка длинных видео или объемных текстовых документов становится крайне сложной и ресурсоемкой задачей. Например, удвоение длины последовательности приводит к учетверенному увеличению необходимых вычислений, что быстро делает обработку на современном оборудовании невозможной. O(n^2) — такая асимптотическая сложность ограничивает применение традиционных методов последовательного моделирования к задачам, требующим анализа обширного контекста, таким как понимание сложных нарративов или обработка высокоразрешающих видеоданных. Это фундаментальное ограничение требует разработки новых подходов, способных эффективно масштабироваться для обработки длинных последовательностей без значительной потери производительности.

Квадратичная сложность механизмов внимания представляет собой фундаментальное препятствие при обработке данных, где контекст охватывает значительные расстояния. По мере увеличения длины последовательности, вычислительные затраты растут пропорционально квадрату этой длины, что делает анализ длинных видео, объемных текстовых документов или геномных последовательностей крайне ресурсоемким и практически невозможным для большинства современных вычислительных систем. Это ограничение не позволяет моделям эффективно учитывать долгосрочные зависимости в данных, препятствуя достижению высокого уровня понимания и точности в задачах, требующих анализа широкого контекста. Таким образом, преодоление этой квадратичной зависимости является ключевой задачей для развития более эффективных и масштабируемых моделей последовательной обработки данных.

Вычислительные затраты на механизм внимания составили <span class="katex-eq" data-katex-display="false">5</span> секунд при размере латентного пространства <span class="katex-eq" data-katex-display="false">21 \times 30 \times 52</span>.
Вычислительные затраты на механизм внимания составили 5 секунд при размере латентного пространства 21 \times 30 \times 52.

Линейное внимание: поиск эффективной альтернативы

Линейное внимание представляет собой эффективное решение для обработки длинных последовательностей, достигающее линейной вычислительной сложности. Традиционные механизмы внимания имеют квадратичную сложность O(n^2), где n — длина последовательности. Линейное внимание снижает эту сложность до O(n), что существенно уменьшает потребность в вычислительных ресурсах и памяти при работе с большими объемами данных. Это достигается за счет изменения способа вычисления весов внимания, позволяя обрабатывать более длинные последовательности при сохранении приемлемой скорости обработки.

Несмотря на снижение числа операций с плавающей точкой (FLOPs) благодаря линейному вниманию, часто наблюдается компромисс между вычислительной эффективностью и выразительностью модели. Уменьшение сложности вычислений может приводить к потере способности модели улавливать сложные зависимости в данных, особенно в длинных последовательностях. Это связано с тем, что линейное внимание, упрощая механизм внимания, может упускать важные детали, которые фиксируются в стандартном квадратичном внимании. В результате, модель может демонстрировать снижение точности или обобщающей способности при решении определенных задач, требующих высокой степени детализации и понимания контекста.

Методы, такие как FlashAttention, направлены на оптимизацию константных факторов в квадратичном внимании, обеспечивая прирост производительности без изменения фундаментальной сложности вычислений. Однако, ReHyAt демонстрирует в 4 раза меньшее количество операций с плавающей точкой (FLOPs) по сравнению с Flash Attention, используемым в модели Wan2.1. Это достигается за счет изменения базового алгоритма внимания, а не просто оптимизации его реализации, что позволяет значительно снизить вычислительные затраты при обработке длинных последовательностей.

Перенос знаний: дистилляция внимания для эффективности

Двухэтапное обучение использует дистилляцию внимания (Attention Distillation) для передачи знаний от вычислительно сложной и высокопроизводительной модели-учителя к более эффективной модели-ученику. В процессе дистилляции внимания акцент делается на сопоставлении активаций, что позволяет модели-ученику имитировать поведение модели-учителя без воспроизведения её размера или сложности. Этот подход позволяет сохранить сильные возможности моделирования, значительно снижая вычислительные затраты во время инференса. В ReHyAt данный метод позволяет достичь результатов при стоимости обучения менее 160 GPU-часов.

Метод дистилляции внимания (Attention Distillation) фокусируется на сопоставлении активаций — внутренних представлений данных — в модели-учителе и модели-ученике. Вместо прямой имитации выходных данных, ученик обучается воспроизводить паттерны активаций учителя, что позволяет ему усваивать знания о структуре данных и важных признаках. Это обеспечивает возможность достижения сопоставимой производительности при значительно меньшем размере и вычислительной сложности модели-ученика, поскольку ученик не реплицирует архитектуру и параметры учителя, а лишь адаптирует свой внутренний механизм обработки информации для воспроизведения ключевых активаций.

Использование двухэтапного обучения с дистилляцией внимания позволяет сохранить высокую производительность модели при значительном снижении вычислительных затрат на этапе инференса. Реализация ReHyAt требует менее 160 GPU-часов для обучения, что составляет менее 1% от 12 дней (с использованием 64 графических процессоров H100), необходимых для обучения модели SANA-Video. Это существенное снижение времени обучения достигается за счет передачи знаний от более сложной и ресурсоемкой модели-учителя к более эффективной модели-ученику, сохраняя при этом ее способность к точному моделированию.

Масштабирование для реальных данных: достижение эффективности в сложных задачах

Продолжительность видео и количество токенов, используемых для его представления, неразрывно связаны, определяя общий размер входных данных и, следовательно, вычислительные требования любой последовательной модели. Чем длиннее видео, тем больше токенов необходимо для его кодирования, что экспоненциально увеличивает объем памяти и операций, необходимых для обработки. Это представляет собой ключевую проблему при работе с видеоданными, поскольку стандартные методы обработки последовательностей часто сталкиваются с ограничениями по памяти и вычислительной мощности при увеличении продолжительности входной последовательности. Понимание этой прямой зависимости является критически важным для разработки эффективных моделей, способных масштабироваться для обработки длинных видео и извлекать из них полезную информацию, не жертвуя при этом производительностью.

Скрытое измерение, являющееся ключевым параметром нейронных сетей, оказывает значительное влияние как на способность модели к обучению и запоминанию информации, так и на вычислительные затраты, необходимые для её функционирования. Увеличение скрытого измерения позволяет модели улавливать более сложные взаимосвязи в данных и повышает её выразительность, однако одновременно с этим требует больше вычислительных ресурсов и памяти. Оптимизация этого параметра — критически важная задача, поскольку баланс между выразительностью и эффективностью напрямую определяет возможность масштабирования модели для обработки больших объемов данных и решения сложных задач. Таким образом, выбор подходящего размера скрытого измерения представляет собой компромисс между способностью модели к обобщению и её практической применимостью.

Современные модели обработки видео сталкиваются с ограничениями, связанными с объемом памяти и вычислительными затратами при работе с длинными последовательностями. Для преодоления этих трудностей применяется тонкий баланс между продолжительностью видео, количеством токенов и размером скрытого слоя нейронной сети. Разработанная система ReHyAt демонстрирует значительный прорыв в эффективности: она обеспечивает в 11 раз более быструю запись и чтение данных из памяти по сравнению с Flash Attention при обработке 121 кадра. При этом, ReHyAt достигает показателя VBench, сопоставимого с Wan2.1 1.3B, но при значительно меньших затратах ресурсов. Особенно заметно улучшение производительности на мобильных устройствах: ReHyAt обеспечивает в 16 раз более низкую задержку по сравнению с использованием Flash Attention в Wan2.1, открывая новые возможности для обработки видео в реальном времени непосредственно на устройстве.

Исследование, представленное в статье, демонстрирует стремление к оптимизации вычислительных затрат в генеративных моделях для видео. Механизм ReHyAt, сочетающий рекуррентные связи и гибридное внимание, позволяет существенно снизить потребность в памяти и вычислительных ресурсах без потери качества генерируемого видео. Этот подход особенно важен для обработки длинных видеопоследовательностей, что соответствует стремлению к созданию более реалистичных и детализированных визуальных представлений. Как однажды заметил Джеффри Хинтон: «Чтобы научить машину чему-то новому, нужно сначала заставить её забыть что-то старое». Эта фраза отражает суть оптимизации — необходимость отсекать избыточную информацию и концентрироваться на наиболее важных аспектах, что и реализовано в ReHyAt путем эффективного использования внимания и рекуррентных связей.

Куда же дальше?

Представленная работа, безусловно, открывает новые горизонты в генерации продолжительных видео, однако, как это часто бывает, решение одной задачи неизбежно высвечивает иные, не менее сложные. Уменьшение вычислительной нагрузки, достигнутое посредством ReHyAt, — шаг важный, но не панацея. Следует признать, что истинное понимание видео как временной последовательности требует не только эффективных механизмов внимания, но и более глубокого анализа взаимосвязей между кадрами, выходящих за рамки простой экстраполяции.

Особый интерес представляет исследование возможности адаптации ReHyAt к различным модальностям данных — не только к видео, но и к аудио, тексту и другим сенсорным потокам. Каждое отклонение от идеальной генерации, каждое «шумное» пиксельное пятно — это потенциальная возможность выявить скрытые зависимости и улучшить модель. Вместо стремления к совершенству, возможно, стоит сосредоточиться на создании систем, способных обучаться на ошибках и генерировать не «реалистичные», а «интересные» видео.

В конечном счете, истинный прогресс в области генеративных моделей будет достигнут не за счет увеличения вычислительной мощности, а за счет развития алгоритмов, способных извлекать смысл из хаоса данных. Законы, управляющие динамикой видео, сложны и многогранны, и их полное понимание — задача, требующая не только технических инноваций, но и философского осмысления.


Оригинал статьи: https://arxiv.org/pdf/2601.04342.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-01-10 00:58