Как заставить языковые модели говорить правду?

Автор: Денис Аветисян


Новый подход к декодированию помогает снизить галлюцинации и повысить достоверность генерируемого текста.

Адаптивная схема декодирования GRAD демонстрирует повышение точности генерации текста за счёт использования графа переходов между токенами (TTG), построенного на небольшом корпусе и позволяющего корректировать прогнозы модели путём адаптивного объединения логитов, что в данном примере позволило скорректировать ошибочный прогноз
Адаптивная схема декодирования GRAD демонстрирует повышение точности генерации текста за счёт использования графа переходов между токенами (TTG), построенного на небольшом корпусе и позволяющего корректировать прогнозы модели путём адаптивного объединения логитов, что в данном примере позволило скорректировать ошибочный прогноз «October 2020» на корректный «July 2020», даже при отсутствии точного контекста в графе.

В статье представлена методика Graph-Retrieved Adaptive Decoding (GRAD), использующая графы переходов между токенами для улучшения фактической точности больших языковых моделей.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу

Несмотря на постоянное увеличение масштабов больших языковых моделей (LLM), проблема галлюцинаций, то есть генерации недостоверной информации, остается актуальной. В работе ‘GRAD: Graph-Retrieved Adaptive Decoding for Hallucination Mitigation’ предложен новый подход, основанный на построении графа переходов между токенами, извлеченного из корпуса данных, для адаптивной корректировки процесса декодирования. Эксперименты показали, что предложенный метод позволяет значительно повысить точность и достоверность генерируемых текстов без переобучения модели. Способен ли данный подход стать эффективной альтернативой существующим методам борьбы с галлюцинациями и обеспечить более надежную генерацию знаний?


Галлюцинации в Открытой Генерации: Вечная Проблема

Большие языковые модели (LLM) впечатляют в генерации текста, но часто склонны к «галлюцинациям» – порождению недостоверной информации. Эта проблема особенно актуальна в задачах открытой генерации, где отсутствие ограничений увеличивает риск создания необоснованных утверждений. Существующие подходы, такие как генерация с дополнением извлечением, не гарантируют полной защиты от ошибок. Каждая «революционная» технология завтра станет техдолгом.

Graph-Retrieved Adaptive Decoding: Привязка к Данным

Представлен Graph-Retrieved Adaptive Decoding (GRAD) – новый фреймворк, использующий статистические связи между токенами, зафиксированные в графе переходов токенов. GRAD улучшает процесс декодирования языковых моделей, предоставляя механизм привязки к данным. В отличие от традиционных методов, GRAD интегрирует логиты, полученные на основе графа, со стандартными вероятностями LLM, обеспечивая дополнительное основание для генерации текста. Параметр Adaptive Decoding Strength (α) контролирует влияние логитов, позволяя гибко настраивать степень привязки к данным.

Эксперименты с Qwen2.5-3B показывают, что производительность GRAD улучшается с увеличением размера обучающего корпуса, что подтверждается данными из Таблицы 2 (Приложение A.1).
Эксперименты с Qwen2.5-3B показывают, что производительность GRAD улучшается с увеличением размера обучающего корпуса, что подтверждается данными из Таблицы 2 (Приложение A.1).

GRAD в Сравнении с Существующими Методами: Результаты Оценки

Проведена оценка GRAD в сравнении с Contrastive Decoding, CAD, DoLa и Instructive Decoding с использованием WikiQA и PreciseWikiQA (для фактической точности) и FaithEval (для внутренней согласованности). Результаты показывают, что GRAD превосходит базовые модели, улучшая внутреннюю точность до 9.7%, снижая частоту галлюцинаций до 8.6% и повышая корректность до 6.9%. В частности, GRAD достигает T*I в 59.6% на WikiQA (на 2.2% выше, чем при жадном декодировании) и улучшает показатель FaithEval — Strict Accuracy на 6.2% на Llama3.2-3B.

Анализ роста графа в зависимости от размера обучающего корпуса показывает, что количество узлов (сплошная линия) и ребер (пунктирная линия) увеличивается, как показано в Таблице 3 (Приложение A.1).
Анализ роста графа в зависимости от размера обучающего корпуса показывает, что количество узлов (сплошная линия) и ребер (пунктирная линия) увеличивается, как показано в Таблице 3 (Приложение A.1).

GRAD: Адаптивность и Перспективы Развития

Предложенный фреймворк GRAD представляет собой альтернативный подход к генерации текста, основанный на статистическом анализе совместной встречаемости токенов. В отличие от методов, требующих значительных вычислительных ресурсов (Training-Time Alignment и Reinforcement Learning from Human Feedback), GRAD акцентирует внимание на выявлении и использовании эмпирических закономерностей в данных. Архитектура GRAD обладает высокой адаптивностью и может быть успешно применена к различным LLM, включая Llama3.2 и Qwen2.5. Направления дальнейших исследований включают интеграцию внешних графов знаний и символьного рассуждения. Каждая «революционная» технология завтра станет техдолгом.

Наблюдатель отмечает, что предложенный GRAD, использующий граф переходов токенов для снижения галлюцинаций, – это, по сути, очередная попытка обуздать неуправляемость больших языковых моделей. Это не отменяет ценности работы, но и не вызывает иллюзий относительно её долгосрочной перспективы. Как точно подметил Дональд Кнут: «Прежде чем оптимизировать, убедитесь, что программа работает правильно». Здесь же, как правило, сначала пытаются оптимизировать «красивые диаграммы» бесконечной масштабируемости, а потом удивляются, почему всё превращается в монолит. В конечном итоге, всегда найдётся способ сломать элегантную теорию, особенно когда речь идёт о генеративных моделях, склонных к выдумыванию фактов.

Что дальше?

Представленный подход, использующий графы переходов токенов для смягчения галлюцинаций в больших языковых моделях, выглядит… знакомо. В конце концов, любая сложная система когда-то была простым bash-скриптом, а затем её усложнили, чтобы казалось, что она решает проблемы, которые она же и создала. Начинает казаться, что сейчас это назовут “AI” и получат инвестиции. Реальная проблема, однако, остаётся нерешённой: модели по-прежнему склонны к выдумыванию, а “знание”, которое они якобы используют, – это статистическая иллюзия.

В перспективе, стоит ожидать, что подобного рода методы будут усложняться, добавляя новые слои абстракции и новые графы. Но вопрос в том, не усугубит ли это проблему технического долга? Каждый новый граф потребует обслуживания, обновления, и, в конечном итоге, переписывания. А документация, как обычно, соврет о том, как это работает.

Вероятно, следующая волна исследований будет направлена на создание более динамических и адаптивных графов, способных учитывать контекст запроса и историю диалога. Однако, не стоит забывать, что даже самый совершенный граф не сможет заменить реальное понимание. И начинаю подозревать, что все эти “контрастивные методы декодирования” — просто попытка замаскировать отсутствие этого самого понимания.


Оригинал статьи: https://arxiv.org/pdf/2511.03900.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2025-11-09 20:00