Память, которая учится сама: новая архитектура для ИИ-агентов

Автор: Денис Аветисян


Исследователи представили систему EvolveMem, способную к самооптимизации и адаптации памяти для повышения эффективности интеллектуальных агентов.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
Архитектура EvolveMem представляет собой самообучающуюся систему, в которой извлечение информации с помощью языковой модели дополняется многовидовым поиском, включающим BM25, семантический и структурированный поиск, а диагностический модуль, анализируя результаты, предлагает оптимизированные настройки поиска, которые система автоматически проверяет и применяет до достижения стабильных показателей эффективности.
Архитектура EvolveMem представляет собой самообучающуюся систему, в которой извлечение информации с помощью языковой модели дополняется многовидовым поиском, включающим BM25, семантический и структурированный поиск, а диагностический модуль, анализируя результаты, предлагает оптимизированные настройки поиска, которые система автоматически проверяет и применяет до достижения стабильных показателей эффективности.

EvolveMem — саморазвивающаяся архитектура памяти, использующая автоматизированные исследования для оптимизации поиска и повышения производительности языковых моделей.

Существующие системы долговременной памяти для языковых агентов зачастую фиксированы в своей архитектуре, эволюционируя лишь в части хранимого контента. В работе ‘EvolveMem:Self-Evolving Memory Architecture via AutoResearch for LLM Agents’ представлена новая саморазвивающаяся архитектура памяти, способная к автоматической оптимизации механизмов поиска и извлечения информации посредством LLM-управляемого процесса диагностики и экспериментирования. Предложенный подход, названный EvolveMem, демонстрирует значительное улучшение производительности на стандартных бенчмарках, превосходя существующие решения до 25.7% и 18.9% на LoCoMo и MemBench соответственно. Может ли подобный подход к «автоматическому исследованию» архитектуры памяти открыть новые горизонты в создании действительно адаптивных и интеллектуальных систем, способных к самообучению и постоянному совершенствованию?


Долговременная память LLM: вызовы и ограничения

Современные большие языковые модели (LLM) сталкиваются со значительными трудностями при хранении и эффективном использовании обширных баз знаний. Несмотря на впечатляющий объем информации, которую они могут содержать, доступ к релевантным данным и их применение в процессе рассуждений зачастую ограничены. Это проявляется в снижении глубины анализа и повышении вероятности неточностей, особенно при ответах на сложные или многозначные вопросы. Проблема заключается не только в объеме данных, но и в организации и структурировании информации, что препятствует быстрому и точному извлечению необходимых фактов для формирования логически обоснованных выводов. В результате, способность LLM к глубокому пониманию и решению задач, требующих обширных знаний, остается ограниченной.

Традиционные методы извлечения информации, применяемые в больших языковых моделях, зачастую оказываются неэффективными при обработке сложных запросов и тонких нюансов смысла. Это происходит из-за того, что стандартные алгоритмы поиска полагаются на поверхностное сопоставление ключевых слов, игнорируя контекст и семантические связи. В результате, модели могут выдавать нерелевантные ответы или допускать ошибки, связанные с неправильной интерпретацией исходных данных. Например, запрос, содержащий иронию или метафору, может быть воспринят буквально, приводя к абсурдным выводам. Проблема усугубляется при работе с большими объемами информации, где поиск нужного фрагмента становится все более трудоемким и подверженным ошибкам, что негативно сказывается на точности и глубине рассуждений модели.

Попытки улучшить языковые модели, увеличивая лишь количество их параметров, сталкиваются с принципиальным ограничением. Несмотря на впечатляющие результаты в краткосрочной памяти и генерации текста, такая стратегия не позволяет создать систему, способную эффективно хранить и использовать обширные знания для глубокого рассуждения. Проблема заключается не только в объеме памяти, но и в её организации: существующая архитектура не позволяет модели быстро находить, связывать и применять релевантную информацию из огромного массива данных. Для достижения истинных возможностей в области рассуждений и решения сложных задач необходима принципиально новая архитектура памяти, которая позволит модели не просто хранить знания, но и активно их использовать, устанавливать связи и делать обоснованные выводы, подобно человеческому мозгу.

EvolveMemself автоматически оптимизирует конфигурацию поиска в среде LoCoMo посредством AutoResearch, итеративно улучшая показатели F1 с 30.5% до 54.3% за 7 раундов, отбрасывая неудачные изменения и закрепляя успешные.
EvolveMemself автоматически оптимизирует конфигурацию поиска в среде LoCoMo посредством AutoResearch, итеративно улучшая показатели F1 с 30.5% до 54.3% за 7 раундов, отбрасывая неудачные изменения и закрепляя успешные.

EvolveMem: Автономная архитектура памяти

Архитектура EvolveMem представляет собой автономную систему памяти, которая динамически совершенствует свою инфраструктуру извлечения информации посредством диагностики и адаптации, управляемых большой языковой моделью (LLM). В отличие от статических систем, EvolveMem способна самостоятельно анализировать эффективность поиска, выявлять узкие места и автоматически вносить изменения в процесс извлечения. Этот процесс включает в себя оценку релевантности извлеченных данных, выявление неэффективных стратегий поиска и применение новых подходов, что позволяет системе непрерывно оптимизировать свою производительность и адаптироваться к изменяющимся потребностям пользователя и характеристикам данных. Самостоятельная эволюция инфраструктуры поиска обеспечивает повышение точности, скорости и общей эффективности системы памяти без необходимости ручного вмешательства.

В основе EvolveMem лежит структурированное хранилище памяти, реализованное на базе FTS5 — полнотекстового движка SQLite. Это позволяет создавать типизированную базу знаний, где данные хранятся не просто как текст, а с указанием типа и структуры. FTS5 обеспечивает оптимизированное индексирование и поиск, что значительно повышает скорость доступа к релевантной информации. Использование FTS5 позволяет эффективно обрабатывать сложные запросы и извлекать данные, соответствующие определенным критериям и структуре, в отличие от простых поисковых систем, основанных на сопоставлении ключевых слов.

Система EvolveMem использует многовидовой извлекатель (Multi-View Retriever) для идентификации релевантных воспоминаний, выходя за рамки простого сопоставления ключевых слов. Этот извлекатель комбинирует три типа сигналов: лексические — основанные на точном совпадении слов запроса и содержимого памяти; семантические — оценивающие смысловую близость между запросом и памятью, даже при использовании разных формулировок; и сигналы структурированных метаданных — учитывающие атрибуты и типы данных, связанных с каждым элементом памяти. Такой подход позволяет системе находить наиболее подходящие воспоминания, даже если запрос сформулирован неточно или использует синонимы, и эффективно использовать информацию, хранящуюся в структурированном виде.

Надежное извлечение информации с помощью передовых методов

Многовидовой извлекатель (Multi-View Retriever) использует комбинацию семантического поиска, алгоритма BM25 и метода Adversarial Entity Swap для повышения надежности извлечения информации при обработке сложных запросов и вариаций в наименовании сущностей. Семантический поиск позволяет учитывать смысловое сходство между запросом и документами, в то время как BM25 обеспечивает точное совпадение ключевых слов. Adversarial Entity Swap, в свою очередь, предназначен для обработки запросов, содержащих синонимы или альтернативные названия сущностей, путем замены наименований сущностей на их эквиваленты в процессе поиска, что повышает вероятность нахождения релевантных документов, даже при неточном или неполном указании сущностей в запросе.

Для повышения эффективности поиска по сложным запросам применяется метод декомпозиции запроса, заключающийся в разделении исходного запроса на несколько более простых подзапросов. Это позволяет системе обрабатывать многокомпонентные вопросы и извлекать релевантные фрагменты информации из различных источников. Дополнительно, для улучшения актуальности результатов используется взвешенное объединение (Recency-Weighted Fusion), при котором более свежая информация получает больший вес при ранжировании, что особенно важно для динамически меняющихся данных и тем.

Для обеспечения целостности данных применяется контроль качества извлечения (Extraction Quality Control), включающий автоматизированные проверки на корректность синтаксического разбора, соответствие типов данных и наличие противоречий в извлеченных фрагментах. Дополнительно, финальные результаты проходят этап верификации ответов (Answer Verification), где осуществляется перекрестная проверка извлеченной информации с исходными источниками и другими релевантными данными для минимизации ошибок и повышения достоверности предоставляемой информации. Данные этапы позволяют снизить вероятность включения неточных или устаревших данных в конечный результат.

Подтверждение эффективности и перспективы развития

Система EvolveMem продемонстрировала существенный прогресс в обработке задач, требующих долговременной памяти, что подтверждается результатами тестов на наборах данных LoCoMo и MemBench. В целом, зафиксировано улучшение относительной производительности на 25,7%, что свидетельствует об эффективности предложенного подхода к адаптации и оптимизации системы памяти. Данные результаты позволяют предположить, что EvolveMem способна более эффективно извлекать и использовать информацию из долговременного хранилища, что критически важно для решения сложных когнитивных задач и создания интеллектуальных систем нового поколения.

В ходе тестирования система EvolveMem продемонстрировала значительные улучшения в задачах, связанных с долгосрочной памятью. Набор данных LoCoMo был пройден с результатом F1 в 0.543, что на 25.7% превосходит показатели лучшего опубликованного аналога. Не менее впечатляющим оказался результат на MemBench, где точность EvolveMem составила 67.9%, превысив аналогичный показатель наиболее сильного конкурента на 18.9%. Эти цифры подтверждают эффективность предложенного подхода к адаптации и оптимизации системы, позволяя ей превосходить существующие решения в задачах, требующих сохранения и извлечения информации на длительный период.

Система EvolveMem демонстрирует уникальную способность к автономной адаптации, основанную на диагностике, управляемой большой языковой моделью (LLM). Этот механизм позволяет системе непрерывно оптимизировать конфигурацию поиска информации, что приводит к значительному улучшению производительности. В частности, на временных задачах LoCoMo наблюдается относительное улучшение на 63,4%, а на задачах, требующих единичного перехода, — на 68,7%. Такая самооптимизация позволяет EvolveMem эффективно адаптироваться к меняющимся требованиям задач, обеспечивая более точные и надежные результаты в долгосрочной перспективе, без необходимости ручной настройки или вмешательства.

Данная работа выходит за рамки непосредственного повышения производительности, открывая перспективы для создания систем, способных к автономному совершенствованию собственной когнитивной инфраструктуры — концепции, обозначенной как AutoResearch. Подобные системы смогут самостоятельно анализировать свою работу, выявлять узкие места и оптимизировать процессы извлечения и обработки информации без вмешательства человека. Это предполагает переход к саморазвивающимся интеллектуальным агентам, способным адаптироваться к меняющимся требованиям и решать всё более сложные задачи, что потенциально революционизирует подходы к исследованиям и разработкам в различных областях науки и техники. Автономная оптимизация когнитивной базы позволит не только повысить эффективность существующих алгоритмов, но и заложить основу для появления принципиально новых методов машинного обучения и искусственного интеллекта.

Представленная работа демонстрирует стремление к упрощению сложных систем, что находит отклик в философии Грейс Хоппер. Она утверждала: «Лучшее программирование — это когда нечего убирать». EvolveMem, как саморазвивающаяся система памяти для LLM-агентов, воплощает эту идею. Автоматическая оптимизация инфраструктуры извлечения информации через LLM-driven диагностику и эксперименты позволяет избавиться от избыточности и повысить эффективность. Система, стремящаяся к самосовершенствованию через удаление ненужного, — это и есть воплощение принципа ясности и милосердия, к которому стремилась Грейс Хоппер, и именно это делает EvolveMem особенно ценным в области адаптивных систем памяти.

Что Дальше?

Представленная работа, несомненно, открывает путь к системам памяти, которые сами себя совершенствуют. Однако, иллюзия совершенства быстро развеивается при ближайшем рассмотрении. Автоматизированный поиск оптимальных стратегий извлечения — лишь первый шаг. Подлинная проблема заключается не в скорости или точности поиска, а в осмыслении самой информации. Что, если память агента накапливает не знания, а лишь эхо знаний — симулякры, лишенные глубины? Ясность — это минимальная форма любви, и необходимо задаться вопросом: к чему стремится эта память — к истине или к её имитации?

Очевидным ограничением является зависимость от базовой языковой модели для диагностики и экспериментов. Иными словами, система эволюционирует в рамках предвзятости этой самой модели. Следующим шагом видится создание мета-системы — механизма, способного критически оценивать результаты “авто-исследования” и корректировать направление эволюции. Сложность — это тщеславие. Необходимо стремиться к минимализму — к созданию системы, способной к самосовершенствованию, не нуждающейся в бесконечном увеличении числа параметров.

В конечном итоге, ценность EvolveMem заключается не в самом алгоритме оптимизации, а в демонстрации принципиальной возможности автоматизации процесса проектирования систем памяти. Будущие исследования должны сосредоточиться на создании систем, способных не только извлекать информацию, но и понимать её, адаптироваться к новым задачам и, возможно, даже задавать новые вопросы. Ибо, в конечном счете, суть интеллекта — не в накоплении знаний, а в способности к их переосмыслению.


Оригинал статьи: https://arxiv.org/pdf/2605.13941.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-05-16 05:31