Надежность поисковых систем на основе больших языковых моделей: где кроется слабость?

Автор: Денис Аветисян


Новое исследование систематически оценивает устойчивость современных поисковых систем, использующих большие языковые модели, к различным типам возмущений и выявляет факторы, влияющие на их стабильность.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Исследование корреляции между изотропией векторных представлений корпусов текстов и устойчивостью систем поиска информации к различным искажениям, таким как вариации запросов и отравление корпусов, выявило статистически значимую связь (p<0.05) между однородностью представлений (измеряемой угловой и дисперсионной равномерностью) и сохранением качества поиска (nDCG@10), при этом цветовое кодирование указывает на исходную эффективность систем при чистых запросах, а форма маркеров позволяет идентифицировать конкретные модели.
Исследование корреляции между изотропией векторных представлений корпусов текстов и устойчивостью систем поиска информации к различным искажениям, таким как вариации запросов и отравление корпусов, выявило статистически значимую связь (p<0.05) между однородностью представлений (измеряемой угловой и дисперсионной равномерностью) и сохранением качества поиска (nDCG@10), при этом цветовое кодирование указывает на исходную эффективность систем при чистых запросах, а форма маркеров позволяет идентифицировать конкретные модели.

Систематический анализ обобщающей способности и устойчивости плотных поисковых систем на основе больших языковых моделей, с акцентом на геометрию векторных представлений и масштабируемость.

Несмотря на растущую популярность больших языковых моделей (LLM) в задачах плотного поиска информации, систематической оценки их устойчивости к различным возмущениям долгое время не проводилось. В своей работе ‘On the Robustness of LLM-Based Dense Retrievers: A Systematic Analysis of Generalizability and Stability’ авторы представляют всестороннее исследование обобщающей способности и стабильности современных LLM-основанных систем плотного поиска. Анализ показывает, что хотя LLM превосходят традиционные модели, их устойчивость существенно различается в зависимости от типа возмущений и архитектуры, при этом геометрия эмбеддингов и масштаб модели играют ключевую роль. Какие методы позволят в дальнейшем повысить надежность и предсказуемость LLM-основанных систем поиска в реальных условиях эксплуатации?


Традиционный поиск vs. Плотное извлечение: Почему ключевые слова больше не работают

Традиционные методы информационного поиска, долгое время являвшиеся основой работы поисковых систем, зачастую испытывают трудности с пониманием истинного смысла запроса и документов. Они базируются преимущественно на сопоставлении ключевых слов, что приводит к неточностям, особенно при наличии синонимов, омонимов или сложных формулировок. Например, запрос “лучшие рецепты яблочного пирога” может выдать результаты, содержащие лишь слова “яблоко” и “пирог” без учета контекста или качества рецепта. Такой подход не учитывает семантические связи между словами и не способен эффективно находить релевантную информацию, когда запрос и документ используют разные формулировки для выражения одной и той же идеи. В результате, пользователь может столкнуться с большим количеством нерелевантных результатов, что требует значительных усилий для нахождения необходимой информации.

В отличие от традиционных методов информационного поиска, основанных на точном совпадении ключевых слов, плотное извлечение информации представляет собой принципиально новый подход. Суть его заключается в преобразовании как запросов, так и документов в векторы в многомерном пространстве. Это позволяет осуществлять поиск не по ключевым словам, а по семантической близости, определяемой расстоянием между векторами. Таким образом, система способна находить релевантные документы, даже если они не содержат точных совпадений с запросом, что особенно важно при работе с нюансированным или длинным текстом. По сути, плотное извлечение информации переводит задачу поиска из области точного соответствия в область вычисления схожести, открывая возможности для более интеллектуального и эффективного доступа к знаниям.

В отличие от традиционных методов информационного поиска, опирающихся на прямое совпадение ключевых слов, плотное извлечение информации демонстрирует превосходство при работе с текстами, требующими глубокого семантического понимания. Особенно заметно это при анализе нюансированных или развернутых материалов, где контекст играет ключевую роль. Однако, достижение высокой эффективности в плотном извлечении напрямую зависит от качества используемых архитектур кодировщиков — моделей, преобразующих текст в векторные представления. Более сложные и тщательно обученные кодировщики способны более точно улавливать тонкости смысла, что, в свою очередь, обеспечивает более релевантные результаты поиска и позволяет находить информацию, которая могла бы ускользнуть от систем, основанных на простом сопоставлении слов.

Большие языковые модели как основа для плотных кодировщиков: Революция неизбежна

Декодер-ориентированные языковые модели, такие как LLaMA и Qwen, представляют собой перспективную основу для создания плотных энкодеров благодаря их способности эффективно захватывать семантическую информацию из текста. В отличие от традиционных энкодеров, предварительно обученных на задачах маскирования языка, эти модели обучаются предсказывать следующее слово в последовательности, что позволяет им формировать богатые векторные представления текста. Использование предварительно обученных декодер-ориентированных моделей позволяет избежать дорогостоящего обучения с нуля, перенося знания, полученные при обучении на больших корпусах текстов, на задачи извлечения информации и семантического поиска. Эффективность этих моделей в качестве плотных энкодеров обусловлена их архитектурой, основанной на механизмах внимания, и способностью обрабатывать контекст в длинных последовательностях.

Методы, такие как LLM2Vec и Qwen3Embedding, демонстрируют возможность адаптации декодер-ориентированных языковых моделей для задач эффективного поиска информации. LLM2Vec использует предобученную языковую модель для генерации векторных представлений текстов, которые затем могут быть использованы для поиска семантически близких документов. Qwen3Embedding, разработанный на базе Qwen, оптимизирован для создания компактных и информативных эмбеддингов, что позволяет снизить вычислительные затраты и повысить скорость поиска. Оба подхода показали результаты, сравнимые или превосходящие традиционные методы создания эмбеддингов, такие как Sentence-BERT, особенно в задачах, требующих понимания контекста и семантической близости.

Непосредственный перенос предварительно обученных декодерных языковых моделей, таких как LLaMA или Qwen, для использования в качестве плотных энкодеров не обеспечивает оптимальную производительность. Ключевым фактором является адаптация архитектуры модели, включая выбор слоев, функций активации и механизмов внимания, для конкретной задачи кодирования. Кроме того, необходимы тщательно разработанные стратегии обучения, такие как контрастное обучение или обучение с использованием маскированных признаков, для тонкой настройки модели и максимизации качества получаемых векторных представлений. Эффективность обучения зависит от размера и качества обучающего набора данных, а также от используемых гиперпараметров, таких как скорость обучения и размер пакета.

Результаты показывают, что увеличение размера модели Qwen3 повышает устойчивость к вариациям запросов и отравлению корпуса, о чем свидетельствуется снижением показателя nDCG@10 и частоты успешных атак (ASR@20) на различных наборах данных, при этом погрешность обозначена стандартным отклонением <span class="katex-eq" data-katex-display="false"> \pm1 </span> SD.
Результаты показывают, что увеличение размера модели Qwen3 повышает устойчивость к вариациям запросов и отравлению корпуса, о чем свидетельствуется снижением показателя nDCG@10 и частоты успешных атак (ASR@20) на различных наборах данных, при этом погрешность обозначена стандартным отклонением \pm1 SD.

Строгая оценка на разнообразных наборах данных: Без этого никуда

Для всесторонней оценки систем информационного поиска необходимо тестирование на разнообразных датасетах, таких как MS MARCO, BEIR и BrowseCompPlus. Каждый из этих наборов данных представляет собой специфические трудности: MS MARCO характеризуется реальными поисковыми запросами и релевантными документами, что делает его хорошим индикатором производительности в реальных сценариях; BEIR включает в себя широкий спектр задач, охватывающих семантический поиск, вопросно-ответные системы и кластеризацию, что позволяет оценить обобщающую способность моделей; а BrowseCompPlus, сфокусированный на поисковых запросах, связанных с веб-навигацией, требует эффективной обработки длинных документов и сложных запросов. Использование различных датасетов позволяет выявить сильные и слабые стороны каждой модели и обеспечивает более надежную оценку ее общей эффективности.

Для обеспечения корректного сравнения производительности моделей извлечения информации на разнородных наборах данных, таких как MS MARCO, BEIR и BrowseCompPlus, используется статистическая модель линейных смешанных эффектов. Данный подход позволяет учесть специфические смещения, присущие каждому набору данных, и избежать некорректных выводов, возникающих при простом усреднении метрик. Модель позволяет разделить общую дисперсию на компоненты, соответствующие различиям между наборами данных (случайные эффекты) и различиям между моделями (фиксированные эффекты), обеспечивая более точную и надежную оценку относительной производительности.

Для обеспечения надежной отправной точки в оценке, в качестве базовых моделей были использованы DPR, Contriever и TASB, построенные на основе BERT-подобных кодировщиков. Особо следует отметить, что Contriever демонстрирует значительную чувствительность к шуму на уровне символов. В ходе тестирования на наборе данных MS MARCO наблюдалось снижение показателя nDCG@10 до 42% при добавлении незначительных символьных искажений, что указывает на уязвимость модели к таким помехам и необходимость учета данного фактора при ее применении в реальных условиях.

Результаты исследований демонстрируют, что модели поиска, основанные на больших языковых моделях (LLM) и обученные с использованием инструкций, такие как GTE, демонстрируют наилучшую обобщающую способность и устойчивость. В частности, модель GTE показала полную устойчивость (ASR 0%) к атакам, основанным на отравлении корпуса данных в условиях «белого ящика» (white-box corpus poisoning), что указывает на ее способность эффективно справляться с преднамеренно искаженными данными.

В ходе тестирования всех протестированных моделей было достигнуто менее 1% успеха атак (ASR@20) при использовании прямых переносимых атак типа «черный ящик». Это указывает на высокую устойчивость систем к попыткам манипулирования результатами поиска без доступа к внутренним параметрам модели или обучающим данным. Оценивался процент случаев, когда злоумышленник мог успешно внедрить вредоносные данные в поисковую систему, не имея доступа к её внутренним компонентам, и все протестированные модели продемонстрировали низкий уровень уязвимости к подобным атакам.

Наблюдается, что снижение показателя nDCG@10 при различных типах искажений запросов минимально, что свидетельствует о высокой устойчивости системы на четырех различных наборах данных (среднее значение по 5 повторам, ошибка обозначена как <span class="katex-eq" data-katex-display="false"> \pm 1 </span> стандартное отклонение).
Наблюдается, что снижение показателя nDCG@10 при различных типах искажений запросов минимально, что свидетельствует о высокой устойчивости системы на четырех различных наборах данных (среднее значение по 5 повторам, ошибка обозначена как \pm 1 стандартное отклонение).

Анализ свойств векторного пространства: Изотропия и стабильность — залог надежности

Изотропия, ключевое свойство векторных представлений, отражает степень равномерности их распределения в многомерном пространстве. Измеряется она такими показателями, как AngularUniformity и VarianceUniformity, которые позволяют оценить, насколько равномерно векторы “разбросаны” по всем направлениям. Высокая степень изотропии предполагает, что модель не выделяет какие-либо специфические направления в пространстве представлений, что потенциально способствует лучшей обобщающей способности. В противном случае, неравномерное распределение может приводить к перекосу в представлении данных и снижению производительности, особенно при работе со сложными задачами, требующими обобщения на новые, ранее не встречавшиеся примеры. По сути, изотропия характеризует “сбалансированность” векторного пространства, что является важным фактором для эффективного обучения и функционирования моделей.

Стабильность векторных представлений, измеряемая, в частности, с помощью нормы спектра \mathcal{S}, характеризует способность модели сохранять предсказуемость при незначительных изменениях входных данных. Изучение данной характеристики позволяет оценить устойчивость модели к «шуму» или возмущениям, которые неизбежно возникают в реальных условиях эксплуатации. Высокая стабильность указывает на то, что небольшие отклонения во входных данных не приведут к существенным изменениям в выходных результатах, что особенно важно для задач, требующих надежности и точности, таких как обработка естественного языка и компьютерное зрение. Влияние стабильности на общую производительность модели напрямую связано с её способностью к обобщению и адаптации к новым данным.

Исследования показали заметную корреляцию между угловой равномерностью (Angular Uniformity) и устойчивостью моделей к возмущениям входных данных. Этот взаимосвязанный характер позволяет предположить, что угловая равномерность может выступать в качестве ценного диагностического индикатора качества векторных представлений. По сути, более равномерное распределение векторов в пространстве вкладок, измеряемое угловой равномерностью, часто сопутствует повышенной устойчивости модели к незначительным изменениям во входных данных, что, в свою очередь, может указывать на лучшую обобщающую способность и предсказуемость результатов на новых данных. Таким образом, анализ угловой равномерности предоставляет простой, но эффективный способ оценки и потенциальной оптимизации качества вкладок для повышения надежности и производительности моделей машинного обучения.

В ходе экспериментов было установлено, что применение регуляризации на основе угловой равномерности, направленное на достижение среднего косинусного сходства в 0.139, приводит к существенной перестройке векторного пространства представлений. Данная перестройка, однако, не гарантирует повышения устойчивости модели к возмущениям входных данных. По сути, изменение геометрии пространства вкладок, хотя и способствует более равномерному распределению векторов, не всегда транслируется в улучшенную обобщающую способность или повышенную надежность при работе с незнакомыми данными. Наблюдаемое явление указывает на то, что угловая равномерность и устойчивость — это не эквивалентные свойства, и оптимизация по одному параметру не обязательно влечет за собой улучшение другого.

Свойства пространства векторных представлений, такие как изотропность и стабильность, оказывают непосредственное влияние на способность модели обобщать знания и эффективно работать с ранее не встречавшимися данными. Особенно заметно это проявляется в задачах, требующих сложного логического вывода и анализа, где равномерное распределение векторов и устойчивость к незначительным изменениям входных данных критически важны для достижения высокой точности. Неравномерность или нестабильность пространства представлений может привести к тому, что модель будет испытывать трудности в распознавании закономерностей и корректном применении полученных знаний к новым ситуациям, что существенно ограничивает ее потенциал в решении сложных когнитивных задач. Таким образом, анализ и оптимизация этих свойств являются ключевыми шагами в разработке более надежных и интеллектуальных систем искусственного интеллекта.

Анализ корреляции Пирсона между средней спектральной нормой и метриками устойчивости на наборах данных NQ, MS MARCO и HotpotQA показал значимую связь (p<0.05) между спектральной нормой и снижением nDCG@10, а также уязвимостью к отравлению корпуса (ASR@20), при этом цвет точек отражает исходное качество извлечения информации (nDCG@10).
Анализ корреляции Пирсона между средней спектральной нормой и метриками устойчивости на наборах данных NQ, MS MARCO и HotpotQA показал значимую связь (p<0.05) между спектральной нормой и снижением nDCG@10, а также уязвимостью к отравлению корпуса (ASR@20), при этом цвет точек отражает исходное качество извлечения информации (nDCG@10).

К следующему поколению плотного поиска: Будущее уже здесь

Перспективные исследования в области плотного поиска информации направлены на оптимизацию кодировщиков на основе больших языковых моделей (LLM). Недостаточно просто добиться высокой производительности; критически важно улучшить качество векторного пространства, в котором формируются эмбеддинги. Это предполагает не только повышение скорости и эффективности кодирования, но и обеспечение того, чтобы эмбеддинги точно отражали семантическое значение текста, позволяя более эффективно находить релевантные документы. Улучшение качества пространства эмбеддингов способствует повышению устойчивости и обобщающей способности систем плотного поиска, что особенно важно для работы со сложными запросами и разнообразными данными. Разработка новых методов обучения и архитектур LLM, ориентированных на создание более информативных и структурированных эмбеддингов, является ключевой задачей для будущего развития данной области.

Исследования показали, что многоступенчатые схемы обучения, подобные предложенной в DIVER, способны значительно повысить эффективность систем плотного поиска при решении сложных задач вывода. Вместо традиционного одноэтапного обучения, данный подход предполагает последовательное совершенствование модели на разных этапах, начиная с базового обучения на большом корпусе текстов и заканчивая тонкой настройкой на специфических, более сложных задачах. Такой метод позволяет модели лучше обобщать знания и адаптироваться к разнообразным запросам, улучшая качество извлечения релевантной информации. Эффективность многоступенчатого обучения объясняется тем, что каждый этап фокусируется на определенных аспектах задачи, позволяя модели постепенно приобретать необходимые навыки и избегать переобучения на конкретном типе данных. В результате, системы плотного поиска, обученные по данной схеме, демонстрируют повышенную точность и надежность при решении сложных информационных запросов.

Дальнейшее углубленное тестирование и анализ систем плотного поиска, в сочетании с развитием характеристик векторного пространства, определят облик следующего поколения этих систем. Исследователи сосредотачиваются не только на повышении скорости и точности поиска, но и на обеспечении устойчивости представлений в векторном пространстве к различным искажениям и изменениям в данных. Улучшение качества векторного пространства позволяет более эффективно сопоставлять запросы и документы, даже если они выражены разными словами или содержат синонимы. Особенно важным представляется анализ влияния различных факторов на структуру векторного пространства, таких как размерность, методы обучения и типы используемых данных. Подобный всесторонний подход к оценке и оптимизации позволит создавать системы, способные эффективно работать с большими объемами информации и адаптироваться к новым задачам.

Исследование показывает, что даже самые продвинутые модели, основанные на LLM, не застрахованы от уязвимостей при столкновении с незнакомыми данными или целенаправленными атаками. Это закономерно — вся эта «магия» машинного обучения, как правило, прекрасно работает в лабораторных условиях, но сталкивается с суровой реальностью продакшена. Клод Шеннон, один из отцов информатики, верно подметил: «Коммуникация всегда сопровождается шумом». И этот шум, будь то незначительные вариации в данных или тщательно продуманные атаки, неизбежно влияет на надежность систем поиска, основанных на плотных векторных представлениях. Устойчивость моделей, о которой пишет статья, напрямую зависит от геометрии векторного пространства и масштаба модели — то есть, от того, насколько хорошо система справляется с этим самым «шумом».

Что дальше?

Анализ, представленный в данной работе, закономерно показал, что большая языковая модель, примененная к поиску информации, не является панацеей. Удивительно, не правда ли? Всё, что обещает быть самовосстанавливающимся, просто ещё не сломалось достаточно сильно, чтобы продемонстрировать свою истинную природу. Впрочем, обнаруженная зависимость устойчивости от архитектуры и масштаба модели — это, скорее, констатация очевидного: ресурсы всегда будут неравномерно распределены, а значит, и устойчивость будет разной. Важно понимать, что геометрия эмбеддингов — это не абстрактная красота, а вполне конкретный способ сломать систему, если её достаточно долго и упорно атаковать.

Следующим шагом, вероятно, станет попытка создать «устойчивый» к отравлению корпуса алгоритм. Однако документация к подобным системам, как известно, является формой коллективного самообмана. Уверенность в защите всегда обманчива. Более реалистичным подходом видится принятие факта, что атаки неизбежны, и сосредоточение усилий на быстрых и автоматизированных механизмах восстановления. Если баг воспроизводится — значит, у нас стабильная система, а не надежная.

В конечном счёте, вся эта гонка за «устойчивостью» напоминает попытку построить идеальную крепость. В конечном итоге всегда найдется способ перелезть через стену или прорыть подкоп. Вопрос лишь в том, насколько быстро мы сможем залатать брешь. И, конечно, в том, кто будет оплачивать ремонт.


Оригинал статьи: https://arxiv.org/pdf/2604.16576.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-22 00:27