Кубический диффузионный синтез: новое измерение генерации изображений

Автор: Денис Аветисян


Исследователи представили метод Cubic Discrete Diffusion (CubiD), позволяющий генерировать изображения непосредственно из высокоразмерных представлений, открывая возможности для унифицированных мультимодальных архитектур.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Исследование демонстрирует, что кубическая дискретная диффузия, в отличие от авторегрессивных и стандартных дискретных методов, позволяет эффективно генерировать изображения за <span class="katex-eq" data-katex-display="false">T \ll h \times w \times d</span> итераций благодаря мелкозернистому маскированию в трехмерном тензоре, что обеспечивает моделирование как пространственных, так и размерностных корреляций, в то время как авторегрессия становится непрактичной (<span class="katex-eq" data-katex-display="false">h \times w \times d</span> шагов), а стандартная дискретная диффузия не способна улавливать внутрипозиционные зависимости.
Исследование демонстрирует, что кубическая дискретная диффузия, в отличие от авторегрессивных и стандартных дискретных методов, позволяет эффективно генерировать изображения за T \ll h \times w \times d итераций благодаря мелкозернистому маскированию в трехмерном тензоре, что обеспечивает моделирование как пространственных, так и размерностных корреляций, в то время как авторегрессия становится непрактичной (h \times w \times d шагов), а стандартная дискретная диффузия не способна улавливать внутрипозиционные зависимости.

CubiD использует кубическую маскировку для эффективной дискретной диффузии в пространстве высокоразмерных токенов представления.

Несмотря на успехи дискретных методов генерации изображений, они традиционно ограничены низкой размерностью латентных токенов, что препятствует передаче семантически богатой информации. В данной работе, посвященной ‘Cubic Discrete Diffusion: Discrete Visual Generation on High-Dimensional Representation Tokens’, представлена модель CubiD — первый подход к дискретной генерации, работающий с высокоразмерными представлениями. CubiD использует стратегию кубического маскирования для обучения корреляциям как внутри, так и между пространственными позициями, позволяя генерировать изображения из токенов высокой размерности с фиксированным количеством шагов, не зависящим от их размерности. Сможет ли CubiD стать основой для создания единых мультимодальных архитектур, объединяющих понимание и генерацию изображений?


За гранью пикселей: Дискретное представление как необходимость

Традиционные генеративные модели сталкиваются со значительными трудностями при работе с данными высокой размерности, что обусловлено так называемым “проклятием размерности”. Суть явления заключается в том, что по мере увеличения числа признаков, необходимых для описания данных, объем пространства, в котором эти данные распределены, экспоненциально возрастает. Это приводит к тому, что данные становятся всё более разреженными, а алгоритмы машинного обучения требуют экспоненциально больше данных для достижения сопоставимой точности. В результате, модели испытывают трудности с обобщением, а вычислительные затраты на обучение и вывод становятся непомерно высокими. O(2^d), где d — размерность пространства признаков, иллюстрирует эту экспоненциальную зависимость, подчеркивая необходимость поиска альтернативных подходов к моделированию данных.

Непрерывные представления данных, несмотря на свою кажущуюся гибкость, часто оказываются неэффективными при моделировании сложных структур. В отличие от дискретных представлений, требующих меньше вычислительных ресурсов для обработки, непрерывные векторы нуждаются в значительно большем объеме памяти и вычислений, особенно при работе с данными высокой размерности. Это связано с тем, что каждое измерение в непрерывном пространстве требует отдельной обработки, что экспоненциально увеличивает сложность алгоритмов. В результате, обучение и генерация с использованием непрерывных представлений могут быть значительно медленнее и требовать более мощного оборудования, ограничивая возможности масштабирования и практического применения, особенно в задачах, требующих обработки больших объемов данных или работы в реальном времени.

Использование дискретных токенов открывает новые возможности для повышения эффективности и масштабируемости генеративных моделей. В отличие от непрерывных представлений, требующих огромных вычислительных ресурсов для обработки многомерных данных, дискретные токены позволяют моделировать сложные структуры с меньшими затратами. Этот подход позволяет разложить сложные данные на набор отдельных, легко управляемых единиц, что существенно упрощает процесс обучения и генерации. Благодаря этому, модели, использующие дискретные токены, могут демонстрировать более высокую производительность и масштабируемость, особенно при работе с большими объемами данных и сложными задачами, такими как генерация изображений высокого разрешения или создание реалистичных текстов. Этот метод представляет собой перспективное направление в развитии генеративного моделирования, позволяющее преодолеть ограничения, связанные с проклятием размерности и вычислительной сложностью.

Кубическая дискретная диффузия обеспечивает обучение путем дискретизации высокоразмерных токенов, полученных из входного изображения, и последующего восстановления случайным образом замаскированных токенов вдоль пространственных и размерностных осей, что позволяет захватывать сложные зависимости между ними.
Кубическая дискретная диффузия обеспечивает обучение путем дискретизации высокоразмерных токенов, полученных из входного изображения, и последующего восстановления случайным образом замаскированных токенов вдоль пространственных и размерностных осей, что позволяет захватывать сложные зависимости между ними.

Кубическая дискретная диффузия: Новый подход к генерации

Кубическая дискретная диффузия представляет собой подход к генерации многомерных дискретных токенов, отличающийся возможностью параллельной обработки. В отличие от последовательных методов генерации, данный подход позволяет одновременно обрабатывать несколько токенов, что значительно ускоряет процесс создания данных. Это достигается за счет архитектуры, разработанной для эффективной параллелизации операций над дискретными представлениями данных, что особенно важно при работе с большими объемами информации и высокими требованиями к производительности. Параллельная генерация токенов является ключевым преимуществом, позволяющим снизить время, необходимое для создания полных образцов данных.

Метод кубической дискретной диффузии использует маскированный процесс диффузии для генерации данных. В основе лежит последовательное восстановление поврежденных токенов, начиная с полностью зашумленного состояния. На каждом шаге процесса часть токенов маскируется, а затем модель предсказывает исходные значения для этих замаскированных элементов, постепенно восстанавливая целостность данных. Итеративное применение этого процесса позволяет создавать полные образцы данных из случайного шума, используя вероятностную модель для направленного восстановления информации.

Метод кубической дискретной диффузии обеспечивает точный контроль над процессом генерации за счет использования мелкозернистого маскирования по обоим направлениям: пространственному и размерностному. Это означает, что маска применяется не ко всему образцу данных целиком, а к отдельным его частям как в пространстве (например, к отдельным пикселям изображения или токенам последовательности), так и по осям признаков (например, к отдельным цветовым каналам или элементам вектора признаков). Такой подход позволяет более избирательно восстанавливать поврежденные данные на каждом шаге диффузии, повышая качество генерируемых образцов и предоставляя возможность управления конкретными аспектами генерируемого контента.

CubiD генерирует изображения в процессе последовательного открытия скрытых токенов, начиная с полностью замаскированного представления и постепенно уточняя структуру и детали на протяжении сотен итераций, что обеспечивает вычислительную эффективность даже при высокой размерности признаков.
CubiD генерирует изображения в процессе последовательного открытия скрытых токенов, начиная с полностью замаскированного представления и постепенно уточняя структуру и детали на протяжении сотен итераций, что обеспечивает вычислительную эффективность даже при высокой размерности признаков.

Кодирование мира: Высокоразмерные токены представления

Высокоразмерные репрезентационные токены формируются посредством использования предварительно обученных моделей визуального кодирования, таких как DINOv2 и SigLIP2. Эти модели, обученные на обширных наборах данных изображений, извлекают сложные и информативные признаки из входных данных. DINOv2, основанная на self-distillation, и SigLIP2, объединяющая визуальные и языковые данные, позволяют получить репрезентации, эффективно захватывающие семантическое содержание изображений. Использование предварительно обученных моделей позволяет избежать необходимости обучения с нуля, значительно сокращая вычислительные затраты и время, необходимые для получения качественных признаков для последующих этапов генерации.

Токены высокоразмерного представления, полученные из предварительно обученных визуальных энкодеров, таких как DINOv2 и SigLIP2, содержат комплексные признаки, извлеченные из входных данных. Эти признаки охватывают широкий спектр визуальной информации, включая текстуру, форму, и семантические аспекты изображения. В процессе генерации, эти признаки служат основой для создания новых, реалистичных изображений, поскольку они кодируют ключевые характеристики исходных данных, необходимые для воссоздания и модификации визуального контента. Использование богатых признаков позволяет модели Cubic Discrete Diffusion генерировать изображения с высоким уровнем детализации и семантической согласованности.

Квантование по измерениям является критически важным этапом преобразования непрерывных признаков, полученных из предобученных визуальных энкодеров, в дискретные токены, пригодные для использования в Cubic Discrete Diffusion. Этот процесс предполагает разделение вектора признаков на отдельные измерения и последующее присвоение каждому измерению одного из конечного числа дискретных значений. Выбор количества дискретных уровней влияет на компромисс между степенью сжатия данных и сохранением информации. Использование квантования позволяет заменить непрерывные значения дискретными, что существенно упрощает процесс диффузии и делает его вычислительно более эффективным, поскольку операции выполняются с дискретными токенами, а не с вещественными числами.

Генерация изображений с использованием DINOv2-B позволила получить детализированные и текстурированные образцы из набора данных ImageNet, демонстрирующие разнообразие категорий и высокую степень детализации.
Генерация изображений с использованием DINOv2-B позволила получить детализированные и текстурированные образцы из набора данных ImageNet, демонстрирующие разнообразие категорий и высокую степень детализации.

Проверка и производительность: Оценка качества генерации

В основе обучения модели Cubic Discrete Diffusion лежит функция потерь кросс-энтропии, направленная на минимизацию расхождений между предсказанными и фактическими токенами. Этот подход позволяет модели эффективно изучать вероятностное распределение данных, постепенно уточняя свои прогнозы и снижая неопределенность. Используя кросс-энтропию, модель стремится назначить высокую вероятность правильным токенам и низкую — неправильным, что способствует генерации более реалистичных и когерентных образцов. Такая оптимизация позволяет Cubic Discrete Diffusion не просто воспроизводить данные, но и понимать их структуру, что критически важно для создания высококачественных генеративных моделей.

Механизмы двунаправленного внимания, внедрённые в модель, позволяют ей учитывать как предшествующий, так и последующий контекст при генерации данных. В отличие от традиционных моделей, обрабатывающих информацию последовательно, данная архитектура способна анализировать весь входной ряд одновременно, выявляя взаимосвязи между элементами, находящимися как в начале, так и в конце последовательности. Это особенно важно для задач, где смысл отдельного элемента зависит от его окружения, например, при генерации текста или изображений, где понимание общей картины критически важно для создания связного и реалистичного результата. Такой подход позволяет модели генерировать более согласованные и контекстуально релевантные данные, значительно повышая качество и правдоподобие сгенерированных образцов.

Для оценки качества генерируемых образцов применялась метрика Fréchet Inception Distance (FID) на датасете ImageNet. Достигнутый результат — показатель FID, равный 1.88 для изображений 256×256 с использованием 768-мерных токенов — демонстрирует передовые характеристики модели в области генерации изображений. Этот показатель свидетельствует о высокой степени реалистичности и разнообразия сгенерированных образцов, а также об их тесном соответствии с распределением реальных изображений из датасета ImageNet. Сравнение с существующими методами подтверждает, что данная модель устанавливает новый стандарт качества в задачах генерации изображений.

Исследование демонстрирует, что модель Cubic Discrete Diffusion способна генерировать высококачественные изображения даже без использования техники classifier-free guidance. Показатель Fréchet Inception Distance (FID), равный 2.02, достигнут исключительно за счет архитектуры и процесса обучения модели, что свидетельствует о её внутренней способности к эффективному моделированию данных. Такой результат подчеркивает потенциал подхода, позволяя добиться конкурентоспособных результатов без необходимости применения дополнительных методов контроля генерации, что упрощает процесс обучения и применения модели в различных задачах, связанных с созданием изображений.

Оптимальная производительность модели достигается при стандартном отклонении коэффициента маскирования σ, равном 0.10 в процессе обучения. Данный параметр контролирует степень случайного скрытия входных токенов, что оказывает существенное влияние на способность модели к обобщению и генерации реалистичных образцов. Исследования показали, что при отклонении от данного значения, будь то в сторону большего или меньшего разброса маскированных токенов, качество генерируемых данных снижается. Значение 0.10 обеспечивает баланс между сохранением важной информации и введением достаточного уровня шума, необходимого для эффективного обучения и предотвращения переобучения модели. Таким образом, тщательный подбор данного параметра является критически важным для достижения наилучших результатов при генерации изображений.

Модель CubiD-XXL успешно генерирует разнообразные изображения ImageNet размером 256x256, обусловленные заданными классами.
Модель CubiD-XXL успешно генерирует разнообразные изображения ImageNet размером 256×256, обусловленные заданными классами.

Статья описывает CubiD — метод генерации изображений из токенов высокой размерности. Заманчиво, конечно, но стоит помнить, что любая «революционная» технология неизбежно превратится в технический долг. Авторы уверяют, что их подход обеспечивает state-of-the-art результаты, а единая мультимодальная архитектура — это мечта. Что ж, посмотрим, как долго эта элегантная теория продержится под натиском продакшена. Как говорил Эндрю Ын: «Искусственный интеллект обещает много, но он еще не научился чинить то, что сломал». И это прекрасно иллюстрирует суть: всё, что обещает быть self-healing, просто ещё не ломалось достаточно сильно.

Что дальше?

Предложенный подход, манипулирующий с токенами в высокоразмерном пространстве, конечно, интересен. Но не стоит забывать старую истину: каждая элегантная теория рано или поздно сталкивается с суровой реальностью продакшена. Рано или поздно, кто-нибудь обнаружит, что оптимальный размер этих самых токенов зависит от конкретного датасета, а масштабирование на более сложные данные потребует нетривиальных инженерных решений. Уверен, что скоро возникнет необходимость в очередном фреймворке для «оптимизации токенов», который обещает чудеса, а на деле лишь усложнит пайплайн.

Заявленное объединение модальностей звучит заманчиво, но история учит, что универсальные архитектуры — это лишь мечта. Каждая новая модальность потребует специфической адаптации, а попытки «впихнуть всё в один фреймворк» приведут к очередному раздуванию кода и снижению производительности. Скорее всего, нас ждёт новая волна «специализированных моделей», которые будут «лучше всех» в своей узкой области, и для которых потребуется отдельная команда поддержки.

В конечном итоге, всё это — лишь очередная обёртка над старыми проблемами. Предложенная «кубическая маскировка» — это, по сути, ещё один способ регуляризации. А регуляризация — это вечная борьба с переобучением. Всё новое — это просто старое с худшей документацией, и эта закономерность, вероятно, сохранится и в будущем.


Оригинал статьи: https://arxiv.org/pdf/2603.19232.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-21 16:15