Видео и Искусственный Интеллект: Проверка на Внимательность

Автор: Денис Аветисян


Новый бенчмарк VideoZeroBench позволяет оценить, насколько хорошо модели понимают видео и могут подтвердить свои ответы конкретными моментами в нём.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Разработанный эталон VideoZeroBench включает в себя вручную размеченные и проверенные вопросы и доказательства, охватывающие 13 видеодоменов и 11 базовых возможностей, сгруппированных в три категории: детальное восприятие, пространственно-временное рассуждение и семантическое/кросс-модальное рассуждение, при этом анализ распределения длины видео и минимального охвата доказательств позволяет оценить сложность и разнообразие задач.
Разработанный эталон VideoZeroBench включает в себя вручную размеченные и проверенные вопросы и доказательства, охватывающие 13 видеодоменов и 11 базовых возможностей, сгруппированных в три категории: детальное восприятие, пространственно-временное рассуждение и семантическое/кросс-модальное рассуждение, при этом анализ распределения длины видео и минимального охвата доказательств позволяет оценить сложность и разнообразие задач.

Представлен VideoZeroBench — комплексный тест для оценки способности мультимодальных моделей к пространственно-временному рассуждению и поиску доказательств в видео.

Несмотря на впечатляющие успехи современных мультимодальных больших языковых моделей в обработке видео, оценка их способности к глубокому пониманию и обоснованию ответов остается сложной задачей. В данной работе, ‘VideoZeroBench: Probing the Limits of Video MLLMs with Spatio-Temporal Evidence Verification’, представлен новый иерархический бенчмарк, предназначенный для строгой оценки способности моделей к выявлению и локализации пространственно-временных доказательств, подтверждающих их ответы на вопросы о длинных видео. Эксперименты показывают, что даже самые передовые модели испытывают значительные трудности с обоснованием своих ответов, демонстрируя крайне низкую точность при одновременном требовании корректного ответа и точной локализации доказательств. Не является ли это свидетельством существенного пробела между поверхностной корректностью ответов и истинным пониманием видео, требующим дальнейших исследований в области обоснованного видео-рассуждения?


Современный видеоанализ: между иллюзией и пониманием

Современные мультимодальные большие языковые модели (MLLM) демонстрируют впечатляющие возможности в обработке информации, однако часто сталкиваются с трудностями при анализе видео, требующего последовательного, многошагового рассуждения. Несмотря на способность распознавать объекты и действия, модели нередко испытывают затруднения в понимании сложных взаимосвязей и контекста, что приводит к ошибкам при решении задач, требующих логического вывода и планирования действий на основе визуальной информации. Это особенно заметно в сценариях, где необходимо не просто идентифицировать происходящее, но и предсказать дальнейшее развитие событий или объяснить причины тех или иных действий, демонстрируя, по сути, не поверхностное сопоставление образов, а истинное понимание происходящего.

Исследования показывают, что современные мультимодальные большие языковые модели (MLLM) зачастую полагаются на поверхностное сопоставление шаблонов при анализе видео, что приводит к неточностям в прогнозах. Особенно это заметно в ситуациях, когда требуется сопоставить предсказания с конкретными визуальными доказательствами. Модели могут успешно идентифицировать объекты или действия, но испытывают трудности с установлением причинно-следственных связей или интерпретацией более сложных сценариев, если не способны “увидеть” подтверждение своим выводам в визуальном потоке. Таким образом, даже при высокой точности распознавания отдельных элементов, отсутствие глубокого понимания контекста и связи с визуальными данными может приводить к ошибочным заключениям и неадекватным реакциям на происходящее в видео.

Оценка истинного понимания видео не может ограничиваться простой точностью предсказаний. Современные исследования подчеркивают необходимость более глубокого анализа, фокусирующегося на глубине рассуждений и обоснованности выводов, подкрепленных визуальными доказательствами. Вместо того, чтобы просто оценивать, правильно ли модель определяет действие или объект, важно понимать, как она пришла к этому выводу и какие конкретно элементы видео послужили основанием для ее решения. Такой подход требует разработки новых метрик и протоколов оценки, которые позволяют измерить не только результат, но и процесс мышления модели, выявляя слабые места и возможности для улучшения ее способности к комплексному анализу визуальной информации. Это подразумевает переход от поверхностных тестов к задачам, требующим многоступенчатого рассуждения и способности выявлять причинно-следственные связи, что является ключевым аспектом истинного понимания видеоконтента.

Анализ результатов VideoZeroBench показал, что модели испытывают трудности с локализацией релевантных признаков, пониманием пространственных отношений, интеграцией информации во времени и объединением визуальных и слуховых данных для принятия обоснованных решений.
Анализ результатов VideoZeroBench показал, что модели испытывают трудности с локализацией релевантных признаков, пониманием пространственных отношений, интеграцией информации во времени и объединением визуальных и слуховых данных для принятия обоснованных решений.

VideoZeroBench: Разбираем видео по косточкам

VideoZeroBench представляет собой новый оценочный набор данных, предназначенный для детальной оценки возможностей моделей в понимании видео. В отличие от традиционных метрик, оценивающих общую производительность, VideoZeroBench фокусируется на проверке отдельных, атомарных навыков, таких как пространственная и временная привязка. Это позволяет более точно определить сильные и слабые стороны моделей в обработке видеоинформации и оценить их способность к сложному рассуждению, а не просто измерять общую точность ответов. Акцент на гранулярной оценке позволяет исследователям более эффективно разрабатывать и совершенствовать модели видеопонимания.

Иерархия оценки VideoZeroBench состоит из пяти уровней, последовательно проверяющих способность модели отвечать на вопросы, начиная с простых фактов и заканчивая сложными рассуждениями. Ключевым аспектом является требование к модели предоставлять обоснование своих ответов — указание конкретных фрагментов видео, подтверждающих данный ответ. Каждый последующий уровень требует более сложного анализа видео и, соответственно, более детального и точного обоснования. Это позволяет оценить не только правильность ответа, но и способность модели к “видео-обоснованию” (video grounding) — установлению связи между ответом и визуальными доказательствами в видеоматериале.

В основе VideoZeroBench лежит оценка атомарных способностей — фундаментальных навыков, таких как пространственная и временная привязка, необходимых для надежного анализа видео. Это означает, что бенчмарк намеренно фокусируется на проверке способности модели точно определять местоположение объектов в кадре и понимать последовательность событий во времени. В отличие от оценки общей производительности, VideoZeroBench разбивает задачу понимания видео на эти базовые компоненты, что позволяет точно оценить сильные и слабые стороны модели в конкретных областях видео-рассуждений и выявить узкие места в ее архитектуре.

ВидеоZeroBench учитывает сложность анализа длинных видеороликов, что требует от моделей сохранения контекста и способности к рассуждениям на основе расширенных временных зависимостей. В отличие от традиционных подходов, где видео часто разделяются на короткие сегменты, VideoZeroBench включает в себя ролики, требующие от моделей отслеживания событий и взаимосвязей на протяжении всего видеопотока. Это особенно важно для задач, требующих понимания причинно-следственных связей или прогнозирования будущих событий, поскольку модели должны учитывать информацию, полученную из различных моментов времени. Для оценки данной способности, в наборе данных содержатся видеоролики различной длительности, что позволяет оценить эффективность моделей в обработке продолжительных временных последовательностей и поддержании когерентности рассуждений.

Сравнение производительности показывает, что разработанный подход эффективно работает с различными типами действий, видеокатегориями и ограниченными временными отрезками.
Сравнение производительности показывает, что разработанный подход эффективно работает с различными типами действий, видеокатегориями и ограниченными временными отрезками.

Оценка моделей: Где мы сейчас и что это значит

В рамках оценки производительности были протестированы различные модели, включая GPT-5.2, Seed-2.0, Gemini-3, Qwen3.5, Video-R1, Open-o3-Video и VideoChat-R1.5. Для проведения тестирования использовался фреймворк VideoZeroBench, предназначенный для комплексной оценки моделей при работе с видеоданными. Данный фреймворк позволил провести стандартизированную оценку способностей моделей к пониманию и анализу видеоконтента, а также к ответам на вопросы, основанные на содержании видео.

Результаты оценки моделей — GPT-5.2, Seed-2.0, Gemini-3, Qwen3.5, Video-R1, Open-o3-Video и VideoChat-R1.5 — с использованием VideoZeroBench показали существенный разрыв между общей точностью и способностью к обоснованию ответов на основе фактических данных. Все протестированные модели демонстрируют точность менее 1% при выполнении задач, требующих строгого пространственно-временного обоснования на 5-м уровне (Level-5). Это указывает на значительные трудности в понимании и интерпретации видеоконтента, особенно когда требуется точное соотнесение действий и объектов во времени и пространстве, для формирования корректных ответов.

В рамках оценки моделей использовалась пятиуровневая иерархия, включающая метрики Visual IoU (Intersection over Union) и Temporal IoU для детального анализа способности моделей обосновывать свои прогнозы. Visual IoU измеряет степень пересечения предсказанных и фактических ограничивающих рамок объектов на видеокадрах, оценивая точность локализации. Temporal IoU, в свою очередь, оценивает перекрытие предсказанных и фактических временных интервалов событий, определяя точность временного позиционирования. Комбинированное использование этих метрик позволяет выявить сильные и слабые стороны каждой модели в контексте пространственной и временной привязки ответов к визуальным данным, предоставляя более гранулярную картину производительности, чем общая точность.

В ходе оценки моделей на основе VideoZeroBench, Gemini-3-Pro продемонстрировала наивысшую точность на уровне 3 (17.0%) в стандартных задачах вопросно-ответного формата, однако этот показатель существенно ниже результатов, достигаемых человеком (67.6%). Модель Seed-2.0 показала наилучший результат на уровне 1, достигнув точности 25.4% при предоставлении как временных, так и пространственных доказательств. Данные результаты подчеркивают значительный разрыв в производительности между текущими моделями и человеческим уровнем понимания видеоконтента, а также указывают на важность учета как пространственных, так и временных аспектов для повышения точности.

В процессе оценки моделей в рамках VideoZeroBench для эффективной обработки видеоматериалов применяются методы выборочной выборки кадров (Frame Sampling). Данные техники позволяют снизить вычислительную нагрузку и оптимизировать использование ресурсов, извлекая репрезентативные кадры из видеопотока для анализа. Выборка кадров осуществляется с целью сохранения ключевой информации, необходимой для выполнения задач, таких как ответы на вопросы и обоснование ответов на основе видеоконтента. Использование Frame Sampling позволяет обрабатывать большие объемы видеоданных в рамках оценочного пайплайна, не требуя чрезмерных вычислительных мощностей и обеспечивая приемлемое время обработки.

Анализ результатов на VideoZeroBench показал, что модели испытывают трудности с восприятием небольших объектов и кратковременных событий (менее 0.1с) при аудио-обусловленном рассуждении, в то время как Gemini демонстрирует улучшенные результаты в подсчете объектов и их восприятии.
Анализ результатов на VideoZeroBench показал, что модели испытывают трудности с восприятием небольших объектов и кратковременных событий (менее 0.1с) при аудио-обусловленном рассуждении, в то время как Gemini демонстрирует улучшенные результаты в подсчете объектов и их восприятии.

Что дальше? Взгляд в будущее видеоанализа

VideoZeroBench представляет собой ценный инструмент, позволяющий исследователям выявлять слабые места в моделях понимания видео и направлять разработку более надёжных и устойчивых систем. Он позволяет детально анализировать, какие типы рассуждений вызывают затруднения у современных алгоритмов, например, понимание причинно-следственных связей или отслеживание объектов в динамичной среде. Благодаря VideoZeroBench, разработчики получают возможность целенаправленно улучшать отдельные аспекты своих моделей, повышая их точность и обобщающую способность. Этот подход, основанный на точной диагностике, способствует созданию видео-ИИ, который не просто выдает предсказания, но и способен демонстрировать обоснованность своих выводов, что особенно важно для критически важных приложений, где требуется высокая степень надежности и прозрачности.

Особое внимание к обоснованному доказательствами рассуждению в рамках данной работы способствует переходу от непрозрачных, так называемых «черных ящиков» в области искусственного интеллекта, к системам, способным предоставлять четкие и понятные объяснения своих решений. Вместо простого получения предсказания, модели, ориентированные на доказательства, предоставляют информацию о том, какие конкретно элементы видеоряда послужили основанием для сделанного вывода. Такой подход не только повышает доверие к системам видеоанализа, но и открывает возможности для выявления и исправления ошибок, а также для более глубокого понимания процессов принятия решений искусственным интеллектом. Это, в свою очередь, является ключевым шагом к созданию надежных и ответственных систем, способных эффективно взаимодействовать с человеком и решать сложные задачи в различных областях.

Предстоящие исследования направлены на усложнение задач, требующих логических заключений, и расширение области применения VideoZeroBench. Планируется включить в бенчмарк более сложные сценарии, требующие не просто распознавания объектов или действий, но и понимания причинно-следственных связей, временных последовательностей и неявных намерений. Это позволит оценить способность моделей к более глубокому анализу видео и принятию обоснованных решений. Кроме того, расширение охвата различных видеодоменов, таких как медицинские изображения, научные записи и архивные видеоматериалы, позволит выявить универсальные ограничения существующих систем искусственного интеллекта и стимулировать разработку более адаптивных и надежных алгоритмов для обработки видеоинформации.

Решение проблем, выявленных в ходе тестирования VideoZeroBench, открывает путь к реализации полного потенциала видео-ИИ и значительно расширяет область его применения. Улучшенное понимание видео позволит создавать более совершенные системы для робототехники, где критически важна интерпретация визуальной информации об окружающей среде. В сфере видеонаблюдения это приведет к повышению точности обнаружения аномалий и автоматизации анализа происходящего. Кроме того, более глубокое понимание видеоданных позволит создавать более интуитивные и эффективные интерфейсы взаимодействия человека и компьютера, например, в системах распознавания жестов или автоматического создания субтитров. Разработка и внедрение таких технологий потребует дальнейших исследований и оптимизации алгоритмов, но перспективы, которые открывает VideoZeroBench, представляются весьма многообещающими.

Анализ результатов на наборе VideoZeroBench показал, что модели испытывают трудности с локализацией и интерпретацией информации на диаграммах, а также с выполнением задач подсчета при наличии сложных условий и легко смешиваемых объектов.
Анализ результатов на наборе VideoZeroBench показал, что модели испытывают трудности с локализацией и интерпретацией информации на диаграммах, а также с выполнением задач подсчета при наличии сложных условий и легко смешиваемых объектов.

Представленный труд, VideoZeroBench, как и многие амбициозные проекты в области мультимодальных моделей, ставит вопрос о реальной способности систем к пространственно-временному рассуждению. Зачастую, кажущаяся «понятливость» алгоритмов оказывается лишь умением находить статистические закономерности, а не истинным пониманием происходящего. Как заметила Фэй-Фэй Ли: «Искусственный интеллект должен не только видеть, но и понимать». Иначе говоря, недостаточно просто ответить на вопрос о видео; необходимо ещё и указать, где именно в видео находится подтверждение ответа. Иначе это всего лишь красивые слова, а не работающая система, которая рано или поздно столкнётся с первыми же нагрузочными тестами.

Куда же всё это ведёт?

Представленный в работе бенчмарк, VideoZeroBench, как и любая попытка «объективной» оценки, несомненно, выявит новые способы, которыми большие мультимодальные модели будут ошибаться. Ведь каждая «революционная» архитектура рано или поздно столкнётся с жестокой реальностью продакшена, где видеопоток не всегда соответствует идеальным условиям тестовых примеров. Проверка привязки ответов к конкретным моментам видео — шаг в правильном направлении, но не стоит забывать, что модели всё ещё остаются склонны к «галлюцинациям», просто теперь они будут подкреплены «доказательствами» из видеоряда, которые могут быть столь же обманчивы.

Неизбежно возникнет гонка вооружений: новые алгоритмы для генерации ещё более сложных и неоднозначных видео, призванные «пробить» даже самые совершенные системы. И каждый новый бенчмарк будет лишь временным барьером, прежде чем появятся методы обхода, использующие, возможно, те же самые слабости моделей, которые мы сейчас пытаемся выявить. Вспомните, как «всё работало, пока не пришёл agile» — и вот, теперь у нас есть бенчмарки для оценки моделей, которые «понимают» видео, но, разумеется, это лишь очередная обёртка над старыми багами.

В конечном счёте, всё новое — это просто старое с худшей документацией. И задача, возможно, не в том, чтобы создать модель, которая «понимает» видео, а в том, чтобы смириться с тем, что она просто умеет убедительно имитировать это понимание. DevOps, как известно, это когда инженеры смирились. И в этой области, вероятно, нас ждёт то же самое.


Оригинал статьи: https://arxiv.org/pdf/2604.01569.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-05 10:27