Память, которая не забывает: Новая архитектура для долгосрочных агентов

Архитектура памяти непрерывного действия демонстрирует циклический процесс, включающий этапы приема, активации, извлечения и консолидации данных, что позволяет рассматривать систему не как статичную структуру, а как развивающуюся экосистему, где каждый переход влияет на последующие состояния.

Исследователи предлагают принципиально новый подход к организации памяти для языковых агентов, позволяющий им сохранять и использовать информацию на протяжении неограниченно длительных периодов.

Память, которая угасает: новый взгляд на языковые модели

Влияние порога отражения, выраженного в процентилях (pp), на точность модели GSM8K демонстрирует, что используемая в основных экспериментах настройка обеспечивает оптимальный баланс между чувствительностью и устойчивостью к шуму.

Исследователи предлагают переосмыслить «забывчивость» больших языковых моделей, рассматривая её не как недостаток, а как полезный когнитивный механизм, аналогичный человеческой памяти.

Взгляд в будущее: Нейросети для анализа временных рядов

Исследование показывает, как современные языковые модели могут быть адаптированы для классификации временных рядов, открывая новые возможности в анализе данных.

Законы масштабирования нейросетей: от случайных графов к языку

Оптимальные законы масштабирования, полученные с использованием нейросетевой аппроксимации функции [latex]L(N,D)[/latex], позволяют выявить взаимосвязь между количеством параметров [latex]N[/latex] и объемом данных [latex]D[/latex] для достижения наилучшей производительности.

Новое исследование показывает, что фундаментальные принципы, лежащие в основе предсказуемого поведения больших языковых моделей, могут быть обнаружены и в гораздо более простых системах.

Онтологии и Искусственный Интеллект: Новый Подход к Базам Знаний

В статье рассматривается методика создания и совершенствования онтологических баз знаний с использованием возможностей современных языковых моделей.

Искусственный интеллект в архитектурном проектировании: возможности и ограничения

Новое исследование оценивает влияние генеративных моделей ИИ на процесс создания архитектурных концепций и выявляет ключевые факторы, определяющие эффективность такого взаимодействия.

Нейросети, которые не забывают: сжатие памяти для непрерывного обучения

Новая техника позволяет крупным языковым моделям эффективно сохранять знания, получаемые в процессе обучения, не требуя огромных объемов памяти.

От принципов к практике: как сделать данные по-настоящему взаимосовместимыми

В новой статье рассматриваются инструменты Babel и ORION, призванные преодолеть разрыв между теоретическими принципами FAIR и реальным обменом данными между различными системами.

Внимание: Секреты «косой» структуры в языковых моделях

Новое исследование раскрывает алгоритмическую природу «косой» доминирующей структуры в механизмах внимания, объясняя её связь с кодированием позиций и эффективностью представления токенов.