Скрытые риски больших моделей: неустойчивость вычислений

Автор: Денис Аветисян


Новое исследование показывает, что большие мультимодальные модели могут быть подвержены неожиданным сбоям из-за незначительных изменений входных данных, что приводит к серьезной деградации производительности.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Динамика обучения четырех мультимодальных моделей - LLaVA-v1.5-7B, Idefics3-8B, SmolVLM2-2.2B-Instruct и Janus-Pro-1B - на наборе данных Numerical-COCO демонстрирует, что оптимизация с использованием контролируемой прокси-потери на MSCOCO коррелирует с накопленной метрикой численной разности, вычисляемой на основе отклонений прямого прохода от эталонного высокоточного решения.
Динамика обучения четырех мультимодальных моделей — LLaVA-v1.5-7B, Idefics3-8B, SmolVLM2-2.2B-Instruct и Janus-Pro-1B — на наборе данных Numerical-COCO демонстрирует, что оптимизация с использованием контролируемой прокси-потери на MSCOCO коррелирует с накопленной метрикой численной разности, вычисляемой на основе отклонений прямого прохода от эталонного высокоточного решения.

В статье демонстрируется, что большие языковые модели, работающие с изображениями и текстом, уязвимы к числовой неустойчивости, вызванной тщательно подобранными возмущениями входных данных.

Несмотря на широкое распространение мультимодальных больших языковых моделей, их устойчивость к скрытым источникам ошибок остается недостаточно изученной. В работе ‘Induced Numerical Instability: Hidden Costs in Multimodal Large Language Models’ исследуется новый вид уязвимости, заключающийся в намеренном вызове численной нестабильности в процессе инференса. Показано, что специально разработанные входные данные способны значительно ухудшить производительность современных моделей, таких как LLaVa-v1.5-7B и Idefics3-8B, даже при незначительных изменениях изображения. Открывает ли это принципиально новый вектор атак, отличный от традиционных adversarial perturbations, и какие меры необходимо предпринять для повышения надежности этих систем?


Точность как иллюзия: Парадокс в современных ИИ

Современные большие языковые модели (БЯМ) знаменуют собой революцию в области искусственного интеллекта, однако их функционирование требует колоссальных вычислительных ресурсов и высокой точности арифметических операций. Каждая операция, будь то умножение матриц или вычисление вероятностей, опирается на представление чисел в цифровом формате, и даже незначительные погрешности в этих вычислениях могут накапливаться и существенно влиять на конечный результат. По сути, БЯМ — это сложные системы, где точность каждого элементарного шага критически важна для обеспечения надежности и корректности генерируемого текста или принимаемых решений. Постоянное стремление к повышению эффективности и масштабируемости этих моделей требует особого внимания к вопросам численной стабильности и поиску оптимальных методов представления и обработки числовой информации.

Несмотря на значительный прогресс в аппаратном обеспечении, ограничения точности чисел с плавающей точкой остаются скрытой проблемой в современных моделях искусственного интеллекта. Эти ограничения приводят к возникновению небольших ошибок при вычислениях, которые, накапливаясь в процессе обучения и работы сложных нейронных сетей, могут существенно снижать производительность. Даже незначительные погрешности в представлении чисел могут приводить к нестабильности алгоритмов и искажению результатов, особенно в задачах, требующих высокой точности, таких как обработка изображений или генерация текста. Подобные кумулятивные ошибки представляют собой серьезную проблему для разработчиков, стремящихся к созданию надежных и эффективных систем искусственного интеллекта, и требуют разработки новых методов смягчения влияния ограниченной точности вычислений.

Стремление к созданию более быстрых и эффективных моделей искусственного интеллекта требует глубокого понимания влияния численной неустойчивости на большие языковые модели (LLM) и мультимодальные системы, объединяющие зрение и язык. Исследования показывают, что искусственно вызванная неустойчивость в вычислениях может приводить к значительному снижению производительности, в частности, в задачах генерации подписей к изображениям, где точность может падать до 59%. Данный эффект подчеркивает важность разработки алгоритмов и аппаратных решений, способных минимизировать ошибки округления и поддерживать стабильность вычислений даже при высоких требованиях к скорости и эффективности, что является ключевым фактором для дальнейшего развития и внедрения современных систем искусственного интеллекта.

Сравнительный анализ операций умножения и сложения с использованием чисел одинарной и половинной точности (float16) на выборке из 300 пар значений показал, что погрешность при умножении возрастает с увеличением входных данных, в то время как при сложении эта зависимость менее выражена.
Сравнительный анализ операций умножения и сложения с использованием чисел одинарной и половинной точности (float16) на выборке из 300 пар значений показал, что погрешность при умножении возрастает с увеличением входных данных, в то время как при сложении эта зависимость менее выражена.

Источники погрешности: От арифметики до оптимизации

В основе большинства задач искусственного интеллекта лежит арифметика с плавающей точкой (floating-point arithmetic). Неизбежная ограниченность представления чисел в данной системе приводит к возникновению числовых ошибок при каждой операции. Это связано с тем, что не все вещественные числа могут быть точно представлены в конечном машинном формате, что приводит к округлениям и накоплению погрешностей. Например, представление чисел в стандарте IEEE 754 использует конечное число бит для мантиссы и экспоненты, что ограничивает точность и диапазон представляемых значений. Эти ошибки, хотя и кажутся незначительными в отдельных операциях, могут существенно накапливаться при выполнении сложных вычислений и алгоритмов, оказывая влияние на конечный результат.

Алгоритмы оптимизации, такие как градиентный спуск, широко используемые при обучении больших языковых моделей (LLM), подвержены влиянию ошибок представления чисел с плавающей точкой. Эти ошибки могут накапливаться в процессе итеративной оптимизации, приводя к нестабильности процесса обучения, осцилляциям и, в конечном итоге, к достижению субоптимальных решений. Проблема усугубляется при работе с высокоразмерными пространствами параметров, характерными для LLM, где даже незначительные погрешности могут существенно повлиять на итоговую производительность модели. В результате, необходимо применять специализированные методы для смягчения влияния этих ошибок, такие как адаптивные алгоритмы оптимизации и техники регуляризации.

Влияние ошибок представления чисел с плавающей точкой демонстрируется даже в простых моделях, таких как многослойные персептроны (MLP). Наблюдаемые отклонения в результатах работы MLP, вызванные накоплением этих ошибок, приводят к снижению сходства между различными экземплярами модели. В некоторых экспериментах, измеренное значение SBERT-сходства между различными версиями одной и той же модели, обученной с использованием стандартных методов оптимизации, составило 0.403. Это указывает на существенную чувствительность даже относительно простых нейронных сетей к числовым погрешностям, что подчеркивает необходимость учета подобных факторов при разработке и обучении более сложных моделей.

На протяжении обучения модели Idefics3-8B на MSCOCO наблюдается рост численной ошибки, измеряемой как суммарная абсолютная разница между вычислениями в формате <span class="katex-eq" data-katex-display="false">float32</span> и <span class="katex-eq" data-katex-display="false">float16</span>, что свидетельствует об увеличении расхождений при оптимизации функции потерь, описанной в уравнении 9.
На протяжении обучения модели Idefics3-8B на MSCOCO наблюдается рост численной ошибки, измеряемой как суммарная абсолютная разница между вычислениями в формате float32 и float16, что свидетельствует об увеличении расхождений при оптимизации функции потерь, описанной в уравнении 9.

Стратегии устойчивости: Половинная точность и параллелизм

Использование половинной точности (half-precision), формата чисел с меньшим количеством бит, позволяет существенно снизить потребление памяти и ускорить вычисления. Вместо стандартных 32 или 64 бит для представления чисел с плавающей точкой, половинная точность использует 16 бит. Это приводит к уменьшению размера модели и ускорению операций, особенно в задачах глубокого обучения, где требуется обработка больших объемов данных. Однако, уменьшение количества бит неизбежно ведет к снижению точности представления чисел, что может привести к накоплению ошибок округления и, как следствие, к ухудшению качества результатов. Величина потери точности зависит от конкретной задачи и архитектуры модели, поэтому требуется тщательная оценка и, возможно, применение техник компенсации.

Параллелизм SIMD (Single Instruction, Multiple Data) позволяет эффективно использовать пониженную точность вычислений за счет одновременного выполнения множества операций над данными с использованием одной инструкции. Этот подход позволяет усреднять ошибки, возникающие при использовании представлений данных с меньшей точностью, поскольку случайные ошибки, возникающие в отдельных вычислениях, компенсируются при агрегации результатов большого количества параллельных операций. Фактически, большое количество вычислений, выполненных параллельно, приводит к снижению влияния отдельных ошибок округления на общую точность результата, что делает возможным использование пониженной точности без значительной потери производительности или надежности.

Протокол контекста модели (Model Context Protocol) предоставляет стандартизированный интерфейс для подключения больших языковых моделей (LLM) к специализированным инструментам, таким как аппаратные ускорители и библиотеки оптимизированных вычислений. Этот протокол позволяет LLM динамически использовать преимущества этих инструментов для повышения эффективности вычислений, в частности, при применении техник пониженной точности, таких как вычисления с половинной точностью (half-precision). Вместо того чтобы жестко кодировать поддержку этих инструментов непосредственно в архитектуру LLM, протокол контекста модели позволяет модели запрашивать и использовать их по мере необходимости, обеспечивая гибкость и масштабируемость. Это включает в себя передачу данных в оптимизированном формате и управление вычислительными ресурсами, что позволяет существенно снизить потребление памяти и увеличить скорость обработки данных.

Оценка устойчивости: Задачи зрения и языка

Визуальные языковые модели, обрабатывающие одновременно изображения и текст, проявляют особую уязвимость к числовой нестабильности из-за сложности выполняемых вычислений. В отличие от моделей, работающих только с текстом или изображениями, необходимость согласования информации из двух разных модальностей требует проведения большого количества операций с плавающей точкой. Эти операции, особенно при увеличении степени параллелизации и снижении точности вычислений, могут приводить к накоплению ошибок округления и, как следствие, к деградации производительности модели. Сложность архитектуры, включающая множество слоев внимания и преобразований, усугубляет эту проблему, делая модели более восприимчивыми к даже незначительным числовым отклонениям. В результате, обеспечение численной стабильности становится критически важной задачей при разработке и оптимизации таких моделей.

Задачи, такие как автоматическое описание изображений и ответы на вопросы по визуальному контенту, выступают в роли ключевых индикаторов устойчивости современных моделей, работающих с изображениями и текстом. Эти тесты позволяют оценить, насколько эффективно модель справляется с задачами при использовании упрощенных вычислений и повышенном уровне параллельности обработки данных. Использование пониженной точности вычислений, необходимое для ускорения работы и снижения потребления ресурсов, может приводить к ошибкам и нестабильности, поэтому оценка производительности на этих задачах критически важна для выявления уязвимостей и обеспечения надежности системы. Таким образом, результаты выполнения этих задач служат мерилом способности модели сохранять точность и эффективность в условиях ограниченных ресурсов и высокой нагрузки.

Исследования показали, что даже незначительные нарушения в числовой стабильности моделей обработки изображений и текста, таких как Idefics3-8B, могут существенно влиять на качество их работы. В частности, при намеренном введении числовой нестабильности в процессе обработки датасета MSCOCO, показатель CIDEr-D, используемый для оценки качества генерируемых подписей к изображениям, резко упал с 0.664 до 0.273. Этот значительный спад демонстрирует, насколько уязвимы современные модели к подобным проблемам и подчеркивает важность разработки методов обеспечения их надежности и устойчивости к численным ошибкам при работе с большими объемами данных и сложными вычислениями.

Незначительные числовые возмущения (<span class="katex-eq" data-katex-display="false">\epsilon=16/255</span>) приводят к семантически отличающимся от исходных ответам модели SmolVLM2-2.2B, даже при визуально схожих входных изображениях и вопросах.
Незначительные числовые возмущения (\epsilon=16/255) приводят к семантически отличающимся от эталонных ответам модели SmolVLM2-2.2B, несмотря на визуально идентичные входные данные.

За рамки точности: Устранение состязательных уязвимостей

Численная неустойчивость может значительно усиливать воздействие атак, основанных на состязательных искажениях. Исследования показывают, что даже незначительные возмущения входных данных, тщательно разработанные для обмана модели, способны привести к катастрофическим ошибкам, если модель внутренне неустойчива. Эта неустойчивость возникает из-за чувствительности вычислений к небольшим изменениям, что особенно заметно в глубоких нейронных сетях, где каскад матричных операций может усиливать погрешности округления. В результате, модели становятся уязвимыми к злонамеренным входным данным, которые, хотя и кажутся незначительными для человека, могут вызвать резкое падение производительности и привести к непредсказуемым результатам. Понимание и смягчение численной неустойчивости становится критически важным для обеспечения надежности и безопасности систем машинного обучения.

Для повышения устойчивости моделей машинного обучения к враждебным атакам применяются методы, основанные на ограничении Липшица. Эти ограничения, по сути, контролируют скорость изменения выходных данных модели в ответ на небольшие изменения входных данных. Ограничивая эту скорость изменения, можно смягчить влияние незначительных, намеренно внесенных возмущений во входные данные, которые в противном случае могли бы привести к значительным ошибкам в выходных данных. Такой подход позволяет модели сохранять предсказуемость и надежность даже при столкновении с данными, незначительно отличающимися от обучающих, что особенно важно для критически важных приложений, где точность и стабильность имеют первостепенное значение. По сути, ограничения Липшица действуют как регуляторы, сглаживая реакцию модели на входные данные и уменьшая вероятность резких и нежелательных изменений в выходных данных.

Исследования показали, что намеренное усиление численной неустойчивости в моделях машинного обучения может приводить к значительному снижению их производительности. В частности, при анализе задач генерации текстовых описаний изображений, было зафиксировано падение точности до 59% при искусственном увеличении вычислительной нестабильности. Данный результат подчеркивает критическую необходимость разработки надежных механизмов защиты от уязвимостей, связанных с числовыми погрешностями, поскольку даже незначительные возмущения входных данных могут приводить к существенным ошибкам в работе моделей и, как следствие, к снижению их практической ценности. Подобные исследования акцентируют внимание на важности не только повышения точности, но и обеспечения устойчивости моделей к различным видам атак и помех.

Незначительные числовые возмущения (<span class="katex-eq" data-katex-display="false">\epsilon=16/255</span>) приводят к семантически отличающимся от эталонных ответам модели LLaVa-1.5-7B, несмотря на визуально идентичные входные данные.
Незначительные числовые возмущения (\epsilon=16/255) приводят к семантически отличающимся от эталонных ответам модели LLaVa-1.5-7B, несмотря на визуально идентичные входные данные.

Исследование демонстрирует уязвимость больших языковых моделей к числовой нестабильности, вызванной намеренными возмущениями входных данных. Этот феномен выходит за рамки традиционных adversarial атак, представляя собой новую форму сбоя. Как однажды заметил Пол Эрдеш: «Математика — это искусство открывать закономерности, скрытые в хаосе». Подобно тому, как математик ищет порядок, данная работа выявляет скрытые числовые несоответствия, которые могут привести к существенному снижению производительности. В контексте vision-language моделей, даже незначительные возмущения, приводящие к потере точности представления чисел, способны вызвать каскад ошибок и вывести систему из строя. Иными словами, сложность вычислительных процессов требует особого внимания к числовой стабильности.

Что дальше?

Обнаруженная чувствительность крупных многомодальных моделей к числовой нестабильности — не просто очередная уязвимость. Это указание на фундаментальную хрупкость систем, стремящихся к сложности ради самой сложности. Подобно изящному замку, построенному на зыбком песке, модель, требующая точного соблюдения условий представления данных, уже признала свое поражение. Дальнейшие исследования должны сместить фокус с разработки всё более изощрённых атак на поиск принципиально новых архитектур, устойчивых к внутренним числовым погрешностям.

Вопрос не в том, как защитить модель от намеренного воздействия, а в том, как создать систему, которая сама по себе не нуждается в защите. Решение не в увеличении точности вычислений — это лишь отодвигает проблему, а не решает её. Необходимо искать подходы, которые позволят модели самокорректироваться, игнорировать несущественные колебания и оперировать с данными в более абстрактной, устойчивой форме. Простота — вот истинная сложность.

Вероятно, настоящая ценность данной работы заключается не в обнаружении уязвимости, а в демонстрации того, как легко её можно эксплуатировать. Система, требующая инструкций по эксплуатации, уже проиграла. Понятность — это вежливость. И, возможно, скромность — это благоразумие.


Оригинал статьи: https://arxiv.org/pdf/2603.04453.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-08 13:15