Автор: Денис Аветисян
Новая модель EXAONE 4.5 объединяет мощные языковые возможности с глубоким пониманием визуальной информации, открывая новые горизонты мультимодального искусственного интеллекта.

Представляем EXAONE 4.5 — открытую модель, демонстрирующую передовые результаты в задачах визуального вопросно-ответного анализа и мультимодального рассуждения, использующую архитектуру GQA.
Несмотря на значительный прогресс в области искусственного интеллекта, интеграция визуальной и текстовой информации в единую модель остается сложной задачей. В настоящем отчете, ‘EXAONE 4.5 Technical Report’, представлена модель EXAONE 4.5 — первая модель для работы с изображениями и текстом с открытым весом, разработанная LG AI Research. Модель объединяет специализированный визуальный энкодер с архитектурой EXAONE 4.0, демонстрируя высокую производительность в задачах понимания документов и корейского языка, а также увеличенную длину контекста до 256K токенов. Какие перспективы открывает эта разработка для создания интеллектуальных систем нового поколения, способных эффективно работать с мультимодальными данными в различных сферах применения?
Открытие Новой Эры: EXAONE 4.5 — Основа для Визуально-Языкового ИИ
Современные модели, объединяющие зрение и язык, зачастую демонстрируют ограниченные возможности в решении задач, требующих сложного логического мышления и обработки больших объемов информации. Эта проблема особенно заметна при анализе изображений, связанных с развернутыми сценариями или требующих понимания контекста, выходящего за рамки непосредственного визуального представления. Ограниченность в понимании длинных последовательностей и установлении сложных взаимосвязей между объектами и событиями на изображениях существенно снижает эффективность этих моделей в решении реальных практических задач, таких как детальный анализ сцен, автоматическое создание описаний сложных ситуаций или точное выполнение инструкций, основанных на визуальном контенте. Данное ограничение препятствует широкому внедрению таких моделей в приложениях, требующих надежного и глубокого понимания окружающего мира.
Разработанная компанией LG модель EXAONE 4.5 представляет собой новую веху в области искусственного интеллекта, объединяющего зрение и язык. В отличие от существующих систем, испытывающих трудности при решении сложных задач и обработке больших объемов информации, EXAONE 4.5 демонстрирует повышенную надежность и способность к адаптации. Эта инновационная модель, имеющая открытый вес, позволяет исследователям и разработчикам более гибко настраивать и оптимизировать систему для различных применений. Результаты тестирования на многочисленных эталонных наборах данных подтверждают, что EXAONE 4.5 достигает передовых показателей, открывая новые возможности для решения реальных задач, требующих глубокого понимания визуальной информации и языковых нюансов.
Новая модель EXAONE 4.5 не возникла на пустом месте, а стала закономерным продолжением предыдущих разработок LG в области визуально-языковых моделей. Используя накопленный опыт и параметры, полученные в ходе обучения предыдущих итераций EXAONE, инженеры смогли значительно ускорить процесс разработки и добиться впечатляющих результатов. Основой для создания EXAONE 4.5 послужили обширные наборы данных, ранее использованные для обучения предыдущих моделей, что позволило не только сократить время обучения, но и повысить общую производительность системы. Такой подход к развитию позволяет постоянно улучшать возможности моделей, опираясь на уже проверенные и отлаженные решения.
Архитектура и Ключевые Компоненты EXAONE 4.5
В архитектуре EXAONE 4.5 реализована интеграция мощной языковой модели с Vision Encoder, содержащим 1,2 миллиарда параметров. Данная комбинация позволяет эффективно обрабатывать как текстовые, так и визуальные данные. Vision Encoder отвечает за преобразование изображений в векторные представления, которые затем используются языковой моделью совместно с текстовыми входными данными для выполнения комплексных задач, требующих понимания мультимодальной информации. Использование Vision Encoder с большим количеством параметров обеспечивает высокую точность распознавания и анализа визуального контента.
Визуальный энкодер в EXAONE 4.5 использует двумерное вращающееся позиционное кодирование (2D RoPE) для захвата пространственных взаимосвязей внутри изображений. В отличие от абсолютных или относительных позиционных кодировок, 2D RoPE применяет вращения к векторам запросов и ключей на основе их позиций в изображении. Это позволяет модели эффективно учитывать взаимное расположение элементов изображения, что критически важно для задач визуального понимания. Применение вращений кодирует относительную позицию, что позволяет модели обобщать на изображения разных размеров и разрешений без необходимости переобучения. RoPE(x, pos) = R_{pos} \cdot x, где x — вектор запроса/ключа, а R_{pos} — матрица вращения, зависящая от позиции.
В архитектуре Vision Encoder в EXAONE 4.5 реализован механизм Grouped Query Attention (GQA) для оптимизации вычислительной эффективности и снижения потребления памяти. Традиционный механизм Multi-Head Attention (MHA) требует вычисления внимания для каждой пары query и key, что приводит к квадратичной зависимости от длины последовательности. GQA группирует query векторы и разделяет key и value векторы на несколько групп, позволяя вычислять attention только для каждой группы, а не для каждой отдельной query. Это существенно уменьшает вычислительную сложность и объем требуемой памяти, особенно при обработке изображений высокого разрешения или длинных последовательностей визуальных данных, сохраняя при этом сопоставимую точность.
Обучение и Оптимизация для Повышенной Производительности
Визуальный энкодер был обучен с использованием целевой функции OpenVision2, которая стимулирует авторегрессивное обучение. OpenVision2 предполагает предсказание следующих дискретных токенов в последовательности, полученной из изображения, что позволяет модели изучать взаимосвязи между различными визуальными элементами и их контекстом. Такой подход способствует более глубокому пониманию изображений, улучшая способность модели к распознаванию объектов, анализу сцен и выполнению задач, требующих визуального рассуждения. Авторегрессивная природа обучения также позволяет модели генерировать описания изображений и выполнять другие задачи генерации контента.
В процессе разработки EXAONE 4.5 активно использовался опыт, накопленный при создании предыдущей версии модели K-EXAONE. Для ускорения обучения и обеспечения согласованности результатов были повторно использованы существующие токенизаторы и наборы данных, что позволило сократить время обучения и избежать необходимости повторной подготовки базовых компонентов. Такой подход к переносу знаний обеспечил преемственность между версиями и позволил сосредоточить усилия на оптимизации новых функций и повышении общей производительности модели.
Для дальнейшей оптимизации производительности модели EXAONE 4.5 применяются методы контролируемого обучения, оптимизации на основе предпочтений и обучение с подкреплением. Контролируемое обучение использует размеченные данные для корректировки весов модели и повышения точности выполнения задач. Оптимизация на основе предпочтений позволяет модели обучаться на основе сравнения различных вариантов ответов, выбирая наиболее предпочтительные с точки зрения заданных критериев. Обучение с подкреплением использует систему вознаграждений и штрафов для обучения модели принятию оптимальных решений в различных ситуациях, что особенно важно для задач, требующих последовательного принятия решений и долгосрочного планирования.
Для увеличения способности модели обрабатывать более длинные последовательности применялись методы расширения контекстного окна. В результате удалось достичь длины контекста в 256 тысяч токенов. Увеличение длины контекста позволяет модели более эффективно анализировать и понимать взаимосвязи в длинных текстах, что положительно влияет на качество рассуждений и общее понимание информации. Данная технология позволяет обрабатывать документы и диалоги значительно большей длины, чем в предыдущих версиях модели.
Применение и Будущий Потенциал EXAONE 4.5
Модель EXAONE 4.5 демонстрирует впечатляющие результаты в решении задач, связанных с визуальным вопросно-ответным взаимодействием, анализом документов и оптическим распознаванием символов. Её способности позволяют эффективно извлекать информацию из визуальных данных, понимать содержание документов различной сложности и преобразовывать изображения текста в редактируемый формат. Данные достижения открывают широкие перспективы для автоматизации процессов, требующих обработки визуальной информации, включая интеллектуальный поиск, анализ больших объемов данных и создание систем помощи в принятии решений. Высокая точность и скорость работы EXAONE 4.5 делают её ценным инструментом для широкого спектра приложений, от автоматизации офисных задач до разработки передовых систем компьютерного зрения.
Модель EXAONE 4.5 демонстрирует выдающиеся результаты в решении математических задач, основанных на визуальном анализе. В частности, при тестировании на наборе данных MathVision, точность модели составила 75.2%, что превосходит показатели Qwen3-VL-235B (74.6%) и GPT-5 mini (71.9%). Еще более впечатляющие результаты достигнуты на We-Math, где EXAONE 4.5 показала точность в 79.1%, значительно опередив Qwen3-VL-235B (74.8%). Эти результаты свидетельствуют о способности модели эффективно понимать и решать сложные математические задачи, представленные в визуальной форме, открывая широкие возможности для её применения в образовательных платформах и системах автоматизированного решения задач.
Модель EXAONE 4.5 демонстрирует выдающиеся способности в решении сложных задач, требующих логического мышления и анализа. В ходе тестирования на датасете CharXiv (RQ) она достигла точности в 71.7%, превзойдя показатели Qwen3-VL-235B (66.1%). Еще более впечатляющие результаты были получены на OmniDocBench (v1.5), где EXAONE 4.5 набрала 81.2% — что значительно выше результата GPT-5 mini (77.0%). Эти показатели подтверждают, что модель способна эффективно извлекать информацию из сложных документов и применять ее для решения разнообразных задач, открывая новые возможности для автоматизации интеллектуального анализа данных.
Модель EXAONE 4.5 продемонстрировала выдающиеся результаты в специализированных бенчмарках, заняв первое место в рейтинге LiveCodeBench v6. Это свидетельствует о её превосходной способности к пониманию и генерации кода на основе визуальных подсказок. Кроме того, в комплексном тесте τ2-Bench, оценивающем широкий спектр навыков, связанных с пониманием и применением знаний, EXAONE 4.5 набрала средний взвешенный балл 72.0, значительно превзойдя показатели Qwen3-VL-235B-A22B, чей результат составил 57.0. Такое существенное превосходство подчеркивает потенциал EXAONE 4.5 в задачах, требующих сложных рассуждений и умения применять знания из различных областей, что открывает широкие перспективы для её использования в автоматизации разработки программного обеспечения и создании интеллектуальных систем.
Модель EXAONE 4.5 представляет собой перспективную основу для создания систем Vision-Language-Action (VLA), открывая возможности для взаимодействия искусственного интеллекта с реальным миром. Благодаря способности к комплексному анализу визуальной информации и языковому пониманию, EXAONE 4.5 позволяет разрабатывать алгоритмы, способные не только интерпретировать окружающую среду, но и активно воздействовать на неё. Это предполагает создание робототехнических систем, способных выполнять сложные задачи, основанные на визуальных инструкциях и контекстуальном понимании, а также разработку интеллектуальных интерфейсов для управления физическими объектами и процессами. Перспективы применения VLA-моделей, основанных на EXAONE 4.5, охватывают широкий спектр областей, включая автоматизированное производство, логистику, медицину и обслуживание.
Модель EXAONE 4.5, будучи доступной с открытыми весами, предоставляет уникальную возможность для широкого круга исследователей и разработчиков. Этот подход стимулирует коллективную работу и инновации, позволяя сообществу адаптировать и совершенствовать модель для решения разнообразных задач. Открытый доступ к весам способствует не только более глубокому пониманию принципов работы системы, но и ускоряет создание принципиально новых AI-решений, выходящих за рамки первоначальных возможностей. Благодаря этому, EXAONE 4.5 становится не просто инструментом, а платформой для совместного развития искусственного интеллекта, способствуя появлению следующего поколения интеллектуальных систем.
Представленная работа демонстрирует стремление к структурной честности в области мультимодального искусственного интеллекта. Модель EXAONE 4.5, с её акцентом на расширение контекста и эффективное рассуждение, представляет собой попытку упростить сложность восприятия информации. Как однажды заметил Дональд Дэвис: «Простота — это высшая степень совершенства». Эта мысль находит отражение в подходе к созданию модели, где приоритет отдается ясности и эффективности, а не избыточной сложности. EXAONE 4.5, подобно хорошо спроектированной системе, стремится к элегантности за счет исключения ненужных элементов, доказывая, что истинная мощь заключается в лаконичности.
Что дальше?
Представленная работа, демонстрируя возможности EXAONE 4.5, лишь подчеркивает глубину нерешенных вопросов. Достижение “state-of-the-art” — это, скорее, констатация текущего предела, чем финальная точка. Вместо усложнения архитектуры, следует обратить внимание на устранение избыточности. Каждое добавление параметра должно быть оправдано, каждое нововведение — радикально упрощать, а не усложнять понимание. Искусственный интеллект, стремящийся к “пониманию”, должен стремиться к исчезновению следов своего создателя.
Особое внимание заслуживает вопрос контекста. Расширение контекстного окна — временное решение. Истинная задача — не в увеличении объема памяти, а в развитии способности к абстракции и обобщению. Модель должна не хранить информацию, а извлекать принципы. Необходимо двигаться от пассивного запоминания к активному моделированию мира.
И, наконец, необходимо признать, что оценка подобных моделей — процесс несовершенный. Бенчмарки отражают лишь узкий спектр возможностей. Истинный критерий — способность решать нетривиальные задачи, требующие не просто знаний, а интуиции и креативности. А этого, пока, не измерить.
Оригинал статьи: https://arxiv.org/pdf/2604.08644.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Магнитные туннельные переходы: новый путь к квантовым вычислениям?
- Эмоциональный отпечаток: Как мы научили ИИ читать душу (и почему рейтинги вам врут)
- Ускорение обучения языковых моделей: новый подход к передаче знаний
- Квантовые Заметки: От Прорывов к Реальности
- Серебро и медь: новый взгляд на наноаллои
- Взгляд в будущее нейрорадиологии: тандем человека и искусственного интеллекта
- Оптимизация без квантов: новый алгоритм превосходит QAOA
- Искажение Красоты: Как AI Учит Нас, Что Есть ‘Правильное’ Искусство
- Ускорение нейросетей: новый подход для процессоров AMD
- Грань Разума и Вычислений: Анализ Эффективности Больших Языковых Моделей
2026-04-13 09:28