Автор: Денис Аветисян
Новый подход к организации долговременной памяти позволяет создавать более разумных и персонализированных ИИ-агентов, способных к глубокому контекстному анализу.

Систематическое сравнение методов хранения и извлечения знаний на основе графов для персонализированных языковых моделей.
Несмотря на успехи больших языковых моделей (LLM) в генерации связных текстов, эффективное хранение и использование долгосрочной памяти пользователя остается сложной задачей. В работе ‘PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents’ предложен гибкий фреймворк, основанный на графах знаний, для организации внешней памяти LLM-агентов. Разработанная гибридная архитектура графа и различные алгоритмы обхода, включая A*, WaterCircles и beam search, позволяют адаптировать систему к разным задачам и объемам данных, демонстрируя оптимальную производительность на бенчмарках TriviaQA, HotpotQA и DiaASQ. Способны ли подобные графовые подходы обеспечить принципиально новый уровень контекстного понимания и персонализации в интеллектуальных системах?
Преодолевая Границы Традиционных Языковых Моделей
Современные большие языковые модели, несмотря на впечатляющую производительность, зачастую демонстрируют трудности при решении задач, требующих сложного логического мышления и поддержания последовательности в продолжительных диалогах. В то время как они способны генерировать текст, имитирующий человеческую речь, их понимание контекста ограничено, что приводит к нелогичным ответам или потере нити разговора при взаимодействии с более чем несколькими запросами. Эта проблема обусловлена неспособностью моделей эффективно представлять и использовать знания, а также недостаточной глубиной понимания взаимосвязей между понятиями, что становится особенно заметным при столкновении с неоднозначными или требующими глубокого анализа вопросами. В результате, даже самые мощные языковые модели могут выдавать ошибочные или нерелевантные ответы, демонстрируя уязвимость в задачах, требующих истинного интеллекта и способности к рассуждению.
Несмотря на впечатляющий прогресс в области больших языковых моделей (LLM), простое увеличение их размера не является долгосрочным решением для достижения подлинного интеллекта. Исследования показывают, что эффективность работы LLM выходит за рамки количества параметров; ключевым фактором является способность эффективно представлять и извлекать знания. Увеличение масштаба моделей приводит к экспоненциальному росту вычислительных затрат и энергопотребления, в то время как усовершенствованные механизмы представления знаний позволяют моделям оперировать информацией более экономно и эффективно. Вместо запоминания огромного количества данных, истинный интеллект требует способности к абстракции, логическому выводу и установлению сложных связей между понятиями, что требует принципиально новых подходов к организации и доступу к знаниям, выходящих за рамки простого увеличения размера модели.
Существующие системы генерации с расширением поиска (RAG) часто полагаются на поиск по плотным векторам, что может приводить к упущению тонких семантических связей и ограничению глубины рассуждений. Этот подход, хотя и эффективен для поиска наиболее релевантных фрагментов информации, не всегда способен уловить нюансы значения и контекста, необходимые для сложных умозаключений. В результате, система может извлекать информацию, формально соответствующую запросу, но не учитывать скрытые связи или подразумеваемые знания, что снижает качество генерируемых ответов и ограничивает способность модели к действительно глубокому анализу и синтезу информации. Альтернативные методы, фокусирующиеся на структурированном представлении знаний и символических рассуждениях, могут предложить более эффективный способ преодоления этих ограничений и достижения более высокого уровня интеллектуальных способностей.

AriGraph: Интеграция Эпизодической и Семантической Памяти
Архитектура AriGraph представляет собой базовую структуру, явно объединяющую эпизодическую память для хранения краткосрочного опыта и семантическую память для долгосрочных знаний. Эпизодическая память фиксирует конкретные события и их контекст, в то время как семантическая память хранит обобщенные факты и понятия. Интеграция этих двух типов памяти позволяет системе не только запоминать информацию, но и устанавливать связи между текущими событиями и ранее накопленными знаниями, обеспечивая более глубокое понимание и возможность применения информации в различных контекстах. Такое объединение позволяет модели преодолеть ограничения, свойственные чисто статистическим языковым моделям, и формировать более устойчивое и контекстуализированное представление о мире.
Архитектура AriGraph реализует интеграцию эпизодической и семантической памяти посредством структуры графа знаний. В этой структуре концепты представлены узлами (Object Vertex — узел объекта, Thesis Vertex — узел тезиса), а взаимосвязи между ними — ребрами (Object Edge — ребро объекта, Thesis Edge — ребро тезиса, Episodic Edge — эпизодическое ребро). Узлы объектов и тезисов служат для кодирования долгосрочных знаний, в то время как эпизодические ребра связывают конкретные события с этими концептами, формируя контекстуализированное представление информации. Такая организация позволяет системе устанавливать связи между текущим опытом и существующими знаниями, обеспечивая более глубокое понимание и эффективное рассуждение.
Архитектура AriGraph обеспечивает более надежное и контекстуализированное рассуждение за счет установления связей между эпизодическими событиями и семантическими концепциями. В отличие от чисто статистических языковых моделей, полагающихся на корреляции в данных, AriGraph интегрирует краткосрочную эпизодическую память с долгосрочными семантическими знаниями посредством графа знаний. Это позволяет системе не только распознавать закономерности, но и понимать взаимосвязи между событиями и понятиями, что приводит к более обоснованным и контекстно-зависимым выводам. В результате, система способна решать задачи, требующие понимания не только «что» произошло, но и «почему» это произошло, а также прогнозировать последствия действий в конкретном контексте.

Эффективное Извлечение Знаний с Помощью Обхода Графа
Для эффективного поиска релевантной информации в графе знаний AriGraph используются различные алгоритмы обхода графа. В частности, применяется алгоритм A* Search, ориентированный на поиск оптимального пути с использованием эвристической функции; WaterCircles Traversal, предназначенный для расширения поиска от начальной точки по концентрическим окружностям, и BeamSearch, который поддерживает несколько наиболее перспективных путей одновременно. Выбор конкретного алгоритма зависит от характеристик запроса и структуры графа, что позволяет оптимизировать скорость и точность извлечения информации.
Интеграция алгоритмов обхода графа в конвейер GraphRAG позволяет существенно расширить возможности традиционных систем RAG (Retrieval-Augmented Generation). В отличие от стандартных методов, которые полагаются на векторное сходство для извлечения релевантной информации, GraphRAG использует структурированные связи внутри графа знаний (AriGraph) для более точного и контекстуально-обоснованного поиска. Это достигается путем применения алгоритмов обхода графа для выявления не только семантически близких, но и связанных сущностей, что позволяет учитывать более широкий спектр информации и улучшить качество генерируемых ответов. Такой подход позволяет эффективно использовать знания, представленные в структурированном виде, и повысить надежность и обоснованность получаемых результатов.
Для хранения и эффективного запроса к графу знаний используется инфраструктура, состоящая из графовой базы данных Neo4j и векторной базы данных Milvus. Neo4j обеспечивает надежное хранение структурированных данных и взаимосвязей между ними, позволяя осуществлять сложные обходы графа. Milvus используется для хранения векторных представлений сущностей и отношений, что значительно ускоряет поиск семантически близких узлов и позволяет выполнять поиск по смыслу. Комбинация этих технологий обеспечивает масштабируемость и высокую производительность при решении задач, требующих сложного логического вывода и анализа взаимосвязей в графе знаний.
Подтверждение Эффективности на Сложных Наборах Данных
В ходе тестирования на сложных наборах данных, таких как HotpotQA, TriviaQA и DiaASQ, система AriGraph демонстрирует стабильное превосходство над стандартными языковыми моделями и традиционными конвейерами RAG. Достигнута пиковая точность в 0.77, измеренная с использованием подхода LLM-as-a-Judge, что указывает на способность системы генерировать более релевантные и точные ответы в сложных вопросно-ответных сценариях. Такое стабильное улучшение производительности подчеркивает эффективность архитектуры AriGraph в извлечении и синтезе информации из различных источников, обеспечивая более глубокое понимание контекста и, как следствие, более качественные ответы на поставленные вопросы.
Для более точной оценки качества генерируемых ответов использовалась методика LLM-as-a-Judge, при которой другая большая языковая модель выступала в роли эксперта-оценщика. Этот подход позволил выйти за рамки стандартных метрик, таких как точное совпадение, и оценить связность, информативность и общую логичность ответов. Результаты подтвердили, что AriGraph генерирует более последовательные и содержательные ответы по сравнению со стандартными языковыми моделями и традиционными системами RAG. Оценка LLM-as-a-Judge продемонстрировала, что система способна не просто находить информацию, но и эффективно интегрировать её в логически выстроенный и понятный ответ, что является важным показателем качества генерации текстов.
Система продемонстрировала впечатляющие результаты в точном сопоставлении ответов, достигнув показателя в 0.56 при оценке с использованием модели DeepSeek V3. Более того, в определенных конфигурациях наблюдалось улучшение на 14.1% по сравнению с существующими подходами GraphRAG, что свидетельствует о значительном прогрессе в извлечении и структурировании знаний. Такая высокая точность и превосходство над аналогами подтверждают эффективность предложенной архитектуры и ее способность предоставлять более релевантные и достоверные ответы на сложные запросы.
Способность системы обрабатывать многоступенчатые рассуждения и сложные контекстуальные зависимости наглядно демонстрирует эффективность интегрированной архитектуры эпизодической и семантической памяти. В отличие от традиционных методов, полагающихся на немедленный доступ к информации, данная архитектура позволяет модели не только извлекать релевантные факты, но и устанавливать связи между ними, формируя последовательную цепочку умозаключений. Эпизодическая память обеспечивает хранение конкретных событий и контекста, в котором они произошли, а семантическая память — обобщенных знаний о мире. Сочетание этих двух типов памяти позволяет системе успешно справляться с вопросами, требующими анализа нескольких источников информации и выявления скрытых взаимосвязей, что подтверждается результатами тестирования на сложных эталонных наборах данных.

Перспективы Развития: К Когнитивным Архитектурам
Интеграция разнородных больших языковых моделей, включая Qwen2.5, DeepSeek R1, Llama3.1 и GPT-4o-mini, в конвейер GraphRAG обеспечивает создание модульной и адаптируемой системы. Такой подход позволяет использовать сильные стороны каждой модели — от высокой точности парсинга у Qwen2.5 и Llama3.1 до общей производительности DeepSeek R1 — и динамически переключаться между ними в зависимости от конкретной задачи. Вместо жестко заданной архитектуры, система способна гибко реагировать на изменения в данных и требованиях, постоянно оптимизируя процесс извлечения и обработки информации. Это, в свою очередь, повышает общую надежность и эффективность системы, делая её более устойчивой к ошибкам и способной к самообучению.
Дальнейшие исследования направлены на разработку динамических методов построения и совершенствования графовых структур, что позволит системе непрерывно обучаться и актуализировать свою базу знаний. Вместо статической организации информации, предполагается создание самообучающейся сети, способной адаптироваться к новым данным и изменять связи между понятиями. Такой подход позволит системе не просто извлекать факты, но и выявлять скрытые взаимосвязи, делать обоснованные выводы и предвидеть изменения в информации. Ожидается, что динамическое построение графа позволит значительно повысить точность и релевантность ответов, а также обеспечить более эффективное использование ресурсов при обработке больших объемов данных, приближая искусственный интеллект к принципам работы человеческого мозга.
Исследования показали значительные различия в способности различных больших языковых моделей (LLM) к корректному анализу и интерпретации текста. В частности, модель DeepSeek V3 демонстрирует относительно высокий уровень ошибок разбора — 31.21%, что указывает на трудности с пониманием сложных синтаксических конструкций и семантических связей. В то же время, модели Qwen2.5 и Llama3.1 достигли наилучших показателей, с уровнем ошибок всего 0.02%. Это свидетельствует о более высокой точности и надежности этих моделей при обработке текстовой информации и может быть критически важным фактором при построении систем, требующих безошибочного понимания естественного языка, например, в области интеллектуального поиска и анализа данных.
Данная работа представляет собой важный шаг на пути к созданию когнитивных архитектур, стремящихся воспроизвести эффективность и гибкость человеческого мозга. Исследователи надеются, что разработанный подход позволит выйти за рамки традиционных систем искусственного интеллекта, создавая более адаптивные и интеллектуальные решения. Имитация процессов, происходящих в мозге, открывает перспективы для создания ИИ, способного к самообучению, решению сложных задач и эффективной обработке информации в условиях неопределенности. Это, в свою очередь, может привести к появлению новых поколений интеллектуальных систем, применяемых в самых разных областях — от автоматизации и робототехники до медицины и образования.

Исследование, представленное в данной работе, демонстрирует стремление к созданию систем, способных к долгосрочному сохранению и эффективному использованию знаний. Это созвучно идеям о неизбежном старении любой системы, но и о возможности продлить ее функциональность через адаптацию и структурирование информации. Как заметил Джон фон Нейман: «В науке не бывает абсолютно правильных ответов, есть лишь лучшие и худшие приближения». В контексте разработки персонализированных LLM-агентов, гибкая графовая память, предложенная авторами, представляет собой попытку создать «лучшее приближение» к идеальной системе, способной эффективно обрабатывать и использовать накопленный опыт для улучшения контекстного мышления и персонализации. Особенно важна идея о различных алгоритмах обхода графа, позволяющих оптимизировать процесс извлечения знаний и повысить релевантность ответов агента.
Куда Ведут Дороги?
Представленная работа, конструируя гибкую основу для долговременной памяти агентов, лишь подчеркивает фундаментальную хрупкость любой системы представления знаний. Графовые структуры, несомненно, предлагают изящный способ организации информации, однако неизбежно несут в себе отпечаток исходных предположений — те самые абстракции, груз прошлого, которые со временем неизбежно изнашиваются. Вопрос не в совершенстве алгоритмов обхода графа, а в их адаптивности к непрерывно меняющемуся ландшафту релевантности.
Следующим этапом представляется не столько оптимизация скорости извлечения, сколько разработка механизмов, позволяющих системе самостоятельно переоценивать значимость узлов и связей. Ведь память — это не просто хранилище фактов, а динамически меняющаяся картина мира. Устойчивость системы, её способность функционировать в условиях неопределённости, определяется не столько объёмом накопленных данных, сколько скоростью и точностью их переосмысления.
В конечном итоге, задача состоит не в создании «идеальной» памяти, а в проектировании системы, способной достойно стареть. Временная метрика здесь второстепенна; важна способность адаптироваться, перестраиваться, и сохранять функциональность даже под воздействием энтропии. Медленные изменения — вот гарантия долговечности, а не погоня за мгновенной эффективностью.
Оригинал статьи: https://arxiv.org/pdf/2506.17001.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Устойчивое обучение языковых моделей: новый подход к контролю стратегии
- Самообучающиеся системы: новый подход к созданию многоагентных взаимодействий
- Квантовые системы в полуклассическом режиме: новый подход к моделированию
- Взгляд под капот: Анализ кода, сгенерированного нейросетями
- Квантовые вычисления: линейная алгебра на службе симуляции
- Мир моделей: смогут ли роботы ориентироваться без карт?
- Графы в словах: новый подход к представлению данных
- Эмоциональный интеллект ИИ: пора пересмотреть критерии
- Искусственный нос будущего: как квантовая механика и машинное обучение распознают запахи
- Наука из первых рук: новый вызов для искусственного интеллекта
2026-04-25 17:55