Видео по запросу: реалистичные ролики с управлением светом и окружением

Автор: Денис Аветисян


Новая методика позволяет создавать правдоподобные видео, где освещение, расположение объектов и ракурс камеры полностью контролируются.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Предложенный конвейер LiVER преобразует текстовое описание в фотореалистичное видео, анализируя категории объектов и пространственные отношения для построения трёхмерной сцены, вычисляя траекторию камеры, и интегрируя физически достоверные условия освещения и отражения, закодированные в компонентах <span class="katex-eq" data-katex-display="false">X_{cond}</span>, <span class="katex-eq" data-katex-display="false">CC</span>, и <span class="katex-eq" data-katex-display="false">LL</span>, посредством диффузионной модели DiT, что позволяет сохранить планировку сцены, траекторию камеры и реалистичное поведение освещения.
Предложенный конвейер LiVER преобразует текстовое описание в фотореалистичное видео, анализируя категории объектов и пространственные отношения для построения трёхмерной сцены, вычисляя траекторию камеры, и интегрируя физически достоверные условия освещения и отражения, закодированные в компонентах X_{cond}, CC, и LL, посредством диффузионной модели DiT, что позволяет сохранить планировку сцены, траекторию камеры и реалистичное поведение освещения.

Представлен фреймворк LiVER, использующий 3D-сцену-прокси и физически корректный рендеринг в рамках диффузионной модели для генерации видео.

Несмотря на значительный прогресс в генерации видео, точный контроль над ключевыми параметрами сцены, такими как освещение и компоновка, остается сложной задачей. В данной работе, ‘Lighting-grounded Video Generation with Renderer-based Agent Reasoning’, предложен фреймворк LiVER, использующий 3D-сцену в качестве посредника и рендеринг на основе агента для достижения контролируемой генерации видео с реалистичным освещением. Предложенный подход позволяет отделить контроль над сценой от процесса генерации, обеспечивая высокую степень свободы и редактируемость. Открывает ли это новые горизонты для создания интерактивных и полностью контролируемых виртуальных сред?


За гранью пикселей: Поиск истины в трехмерном пространстве

Современные методы генерации видео из текстового описания часто сталкиваются с проблемой несогласованности и недостаточного понимания трехмерного пространства, что приводит к неестественной динамике и нереалистичному расположению объектов. Существующие алгоритмы, оперируя преимущественно с отдельными пикселями, не способны обеспечить последовательность изображения при изменении перспективы или движении камеры. В результате, генерируемые видеоролики могут демонстрировать артефакты, такие как «плавающие» объекты, искажения геометрии или неестественные переходы, что значительно снижает уровень реалистичности и восприятия происходящего. Данное ограничение обусловлено отсутствием у моделей способности к пространственному рассуждению и моделированию физических взаимодействий в трехмерном мире.

Для достижения фотореалистичной генерации видео необходимо отказаться от подхода, основанного исключительно на обработке пикселей, и внедрить явное трехмерное пространственное рассуждение. Существующие методы часто сталкиваются с проблемами согласованности и реалистичности, поскольку они не учитывают фундаментальные законы геометрии и физики, управляющие нашим восприятием мира. Вместо простого манипулирования цветами и яркостью отдельных пикселей, передовые разработки стремятся к моделированию сцены в трехмерном пространстве, что позволяет точно воспроизводить перспективу, освещение и взаимодействие объектов. Такой подход позволяет генерировать видео, в котором объекты выглядят убедительно в пространстве, а их движения соответствуют законам физики, значительно повышая уровень реализма и погружения для зрителя.

Традиционные методы генерации видео, опирающиеся на двумерную обработку пикселей, зачастую не способны создать убедительное ощущение трехмерного пространства. Ограниченность в понимании глубины и взаимного расположения объектов приводит к тому, что сгенерированные сцены выглядят плоскими или лишены логичной перспективы. Отсутствие явного моделирования трехмерного мира не позволяет корректно отображать изменения освещения, тени и взаимное перекрытие объектов, что критически важно для достижения фотореалистичности. В результате, даже при высоком разрешении и детализации, сгенерированное видео может выглядеть неестественно, поскольку не учитывает фундаментальные законы трехмерной геометрии и физики.

Для обучения модели LiVER-Real используется конвейер обработки видео, реконструирующий 3D-геометрию и HDR-окружение для генерации трех представлений освещения (<span class="katex-eq" data-katex-display="false">Diffuse</span>, <span class="katex-eq" data-katex-display="false">Glossy GGX</span>, <span class="katex-eq" data-katex-display="false">Rough GGX</span>), объединенных в финальный входной сигнал.
Для обучения модели LiVER-Real используется конвейер обработки видео, реконструирующий 3D-геометрию и HDR-окружение для генерации трех представлений освещения (Diffuse, Glossy GGX, Rough GGX), объединенных в финальный входной сигнал.

LiVER: Архитектор 3D-согласованности

LiVER использует программный агент, основанный на рендере, для построения трехмерного прокси-представления сцены. Этот прокси-объект служит основой для обеспечения согласованного расположения объектов и траекторий движения камеры в генерируемом видео. Построение сцены в виде прокси позволяет эффективно управлять геометрией и внешним видом объектов, а также гарантирует их пространственную когерентность на протяжении всей последовательности кадров. Данный подход позволяет избежать распространенных артефактов, связанных с непоследовательностью в расположении объектов или резкими изменениями перспективы, что особенно важно для реалистичной визуализации.

Прокси-сцена, используемая в LiVER, строится на основе рендер-пассов, что позволяет реализовать точное освещение и физически корректный рендеринг (PBR). Каждый рендер-пасс отвечает за определенный этап формирования изображения, например, расчет диффузного и зеркального освещения, теней или глобального освещения. Использование нескольких рендер-пассов, а не единого этапа рендеринга, обеспечивает более гибкий контроль над процессом формирования изображения и позволяет добиться реалистичной визуализации материалов и поверхностей, учитывая их физические свойства и взаимодействие со светом. Это особенно важно для достижения высокой степени фотореализма и визуальной достоверности генерируемых видео.

Основываясь на построении 3D-сцены, LiVER обеспечивает пространственную согласованность генерируемого видео и снижает количество визуальных артефактов. Использование трехмерной сцены в качестве основы позволяет системе поддерживать логичные пространственные отношения между объектами на протяжении всей видеопоследовательности. Это исключает такие проблемы, как внезапное изменение размеров или положения объектов, а также нереалистичные пересечения. Точное представление геометрии и освещения в 3D-сцене гарантирует, что сгенерированное видео будет визуально правдоподобным и не будет содержать несоответствий, характерных для 2D-генерируемых видео, где отслеживание и поддержание согласованности сложнее.

Модель позволяет генерировать непрерывные и физически корректные изменения освещения путем манипулирования HDR-окружающей картой, сохраняя при этом стабильность геометрии и материалов, что проявляется в реалистичных изменениях затенения и отражений.
Модель позволяет генерировать непрерывные и физически корректные изменения освещения путем манипулирования HDR-окружающей картой, сохраняя при этом стабильность геометрии и материалов, что проявляется в реалистичных изменениях затенения и отражений.

Освещая сцену: Интеграция HDR-окружения

LiVER использует HDR-карты окружения (High Dynamic Range) для точного моделирования реалистичного освещения в 3D-прокси сцены. Данные карты содержат информацию об освещении со всех направлений, что позволяет учитывать сложные световые эффекты, такие как отражения, преломления и глобальное освещение. Вместо использования упрощенных моделей освещения, HDR-карты обеспечивают более широкий динамический диапазон и цветовое пространство, что приводит к более правдоподобному и визуально богатому результату. Применение HDR-карт окружения позволяет LiVER воссоздавать освещение, близкое к реальному, что критически важно для задач визуализации и симуляции.

Для оценки карт HDR-окружения в LiVER используется алгоритм DiffusionLight-Turbo. Данный алгоритм позволяет реконструировать правдоподобное освещение, основанное на принципах физически корректного рендеринга. DiffusionLight-Turbo учитывает диффузное и зеркальное отражение света, а также взаимодействие света с поверхностями различной шероховатости, что обеспечивает реалистичное освещение в 3D-сцене. Использование данного алгоритма гарантирует, что освещение, симулируемое в LiVER, соответствует физическим законам распространения света, повышая достоверность визуализации.

Для повышения реалистичности освещения в 3D-сценах LiVER использует высококачественные HDR-карты окружения, полученные из открытых источников, таких как Poly Haven и LiVERSet. Эти ресурсы предоставляют широкий спектр карт, охватывающих различные окружения и условия освещения, что позволяет точно имитировать взаимодействие света с поверхностями в виртуальной среде. Карты отличаются высоким разрешением и динамическим диапазоном, обеспечивая детализированное и физически корректное освещение, необходимое для создания убедительных визуальных эффектов.

Создавая 3D-мир: Детали построения прокси-сцены

Прокси-сцена 3D-мира создается с использованием программного пакета Blender и опирается на модели сегментации объектов, такие как Grounding-DINO и SAM 2. Grounding-DINO используется для обнаружения и идентификации объектов на изображениях, предоставляя информацию о координатах ограничивающих рамок, а SAM 2 — для точной сегментации этих объектов, выделяя их контуры. Комбинация этих моделей позволяет автоматически извлекать и разделять объекты в сцене, что необходимо для последующего размещения и манипулирования ими в 3D-среде Blender. Этот подход автоматизирует процесс создания начальной 3D-сцены, уменьшая необходимость ручного моделирования и размещения объектов.

Для обеспечения стабильных и последовательных ракурсов в генерируемых видео используется система VGGT для точной оценки положения камеры. VGGT (View-Generative Guided Tracking) выполняет отслеживание и реконструкцию положения камеры на основе анализа входных изображений, что позволяет сохранять консистентность визуальных перспектив между кадрами. Данная система позволяет добиться высокой точности определения параметров камеры — позиции и ориентации — что критически важно для реалистичной визуализации 3D сцен и избежания нежелательных скачков или искажений в итоговом видеоматериале.

Для построения 3D-сцен используются данные из библиотеки Objaverse-XL, представляющей собой обширный репозиторий 3D-моделей. Данная библиотека содержит большое количество ассетов с PBR (Physically Based Rendering) материалами, что позволяет реалистично отображать взаимодействие света с поверхностями объектов в создаваемой сцене. Использование PBR материалов обеспечивает корректное отражение, преломление и рассеяние света, повышая визуальную достоверность генерируемого контента.

Сравнение с передовыми моделями контролируемой генерации видео демонстрирует, что наша модель обеспечивает более последовательные и реалистичные результаты, приближающиеся к эталонным данным (GT) по всей временной последовательности.
Сравнение с передовыми моделями контролируемой генерации видео демонстрирует, что наша модель обеспечивает более последовательные и реалистичные результаты, приближающиеся к эталонным данным (GT) по всей временной последовательности.

Количественная оценка реализма: Результаты и перспективы

Исследование продемонстрировало значительные улучшения в ключевых метриках оценки реалистичности синтезированных изображений. В частности, наблюдалось существенное снижение ошибки освещения, измеряемой с помощью SI-MSE, что свидетельствует о более точном моделировании световых эффектов. Кроме того, зафиксировано повышение точности оценки положения камеры (ATE) и ошибок относительного положения камеры (RPEt, RPEr), что указывает на улучшенную геометрическую согласованность сцены. Наконец, увеличение метрики mIoU, оценивающей точность распознавания объектов в сцене, подтверждает, что LiVER способен генерировать более правдоподобные и детализированные макеты, приближая синтезированные изображения к реальным данным.

Исследование продемонстрировало передовые результаты в области генерации реалистичных изображений и видео. Достигнуты самые низкие показатели Fréchet Video Distance (FVD) и Fréchet Inception Distance (FID) по сравнению с существующими моделями, что свидетельствует о значительном улучшении качества и реалистичности генерируемого контента. Кроме того, зафиксирована наивысшая степень соответствия между изображениями и текстовыми описаниями, оцениваемая с помощью метрики CLIP, что подтверждает способность системы создавать визуальные представления, точно соответствующие заданным текстовым запросам. Эти показатели указывают на существенный прогресс в области генеративных моделей и открывают новые возможности для создания высококачественного визуального контента.

Дальнейшие исследования направлены на существенное расширение обучающего набора данных, что позволит модели лучше обобщать полученные знания и повысить реалистичность генерируемых изображений. Параллельно планируется внедрение более сложных моделей освещения, учитывающих тонкости взаимодействия света с различными материалами и поверхностями, для достижения фотореалистичного результата. Одновременно с этим ведется работа над оптимизацией конвейера рендеринга, направленная на повышение его эффективности и снижение вычислительных затрат, что позволит ускорить процесс генерации и сделать его доступным для более широкого круга пользователей и применений. Такой комплексный подход позволит значительно улучшить качество и скорость создания реалистичных виртуальных сцен.

Исследователи стремятся обуздать хаос визуального мира, и LiVER — лишь ещё одна попытка уговорить его. Эта работа, представляя собой генерацию видео, основанную на физически корректном освещении, не просто создаёт изображения, она пытается воссоздать логику света и тени. Использование 3D-сцены в качестве посредника — это не стремление к точности, а попытка найти смысл в шуме данных. Как однажды заметила Фэй-Фэй Ли: «Данные — это не цифры, а шёпот хаоса». И LiVER, подобно заклинанию, работает, пока не столкнётся с суровой реальностью продакшена, когда этот шёпот становится оглушительным ревом несоответствий.

Что дальше?

Представленный подход, манипулирующий светом и сценой как кукловод — приятная иллюзия. Но не стоит обольщаться, ведь каждая сгенерированная сцена — это лишь временная победа над хаосом, замаскированная под физическую достоверность. Пока мы украшаем шум, истинная проблема — понимание того, как “понять” намерение, скрытое в текстовом запросе, и преобразовать его в последовательность диффузионных шагов, действительно отражающую смысл.

Следующим шагом, вероятно, станет отказ от упрощенных представлений о 3D-пространстве. Пока мы строим сцены из примитивов, мир вокруг нас состоит из бесконечных деталей, и попытка их воссоздать — это попытка поймать ветер в сети. Отказ от явного представления сцены, переход к неявным представлениям, и, возможно, использование техник обучения с подкреплением для «приручения» агента, управляющего рендерингом, — вот куда, кажется, движется прогресс.

Но, как известно, данные всегда правы — пока не попадут в прод. И даже самая красивая симуляция не заменит столкновения с реальным миром. Поэтому истинный тест для подобных систем — не достижение фотореалистичности, а способность генерировать видео, которые не просто выглядят правдоподобно, но и несут в себе что-то новое, неожиданное, и, возможно, даже полезное. А это уже задача для философов, а не инженеров.


Оригинал статьи: https://arxiv.org/pdf/2604.07966.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-10 17:20