Автор: Денис Аветисян
Новый бенчмарк ImplicitMemBench показывает, что современные большие языковые модели испытывают трудности с освоением форм памяти, лежащих в основе автоматизированного поведения.

Исследование демонстрирует слабость языковых моделей в задачах, требующих процедурной памяти, прайминга и классического обусловливания, указывая на необходимость новых архитектурных решений.
Существующие критерии оценки языковых моделей фокусируются на явном воспроизведении фактов, упуская из виду неявную память, определяющую автоматизированное поведение. В работе ‘ImplicitMemBench: Measuring Unconscious Behavioral Adaptation in Large Language Models’ представлен новый комплексный тест, оценивающий неявную память через призму процедурной памяти, прайминга и классического обусловливания — когнитивно обоснованных механизмов, лежащих в основе автоматизированных навыков. Анализ семнадцати моделей выявил существенные ограничения: ни одна из них не достигла результата выше 66%, что значительно ниже показателей, демонстрируемых человеком. Необходимы ли архитектурные инновации, выходящие за рамки простого увеличения количества параметров, для создания действительно адаптивных и автономных агентов?
Раскрытие Неявной Памяти: Вызов для Бенчмарков
Современные большие языковые модели демонстрируют впечатляющие результаты в задачах, требующих явного знания и логического вывода, однако сталкиваются с трудностями при освоении неявного обучения — способности приобретать навыки и знания без осознанного запоминания. В то время как LLM превосходно справляются с вопросами, требующими непосредственного извлечения информации, им сложно овладеть процедурными навыками, распознавать паттерны через примеры или адаптироваться к изменениям, основанным на подсознательном усвоении правил. Эта неспособность к неявному обучению представляет собой значимое ограничение, поскольку именно эта способность является ключевым признаком интеллекта у людей и животных, позволяя быстро и эффективно адаптироваться к новым ситуациям и овладевать сложными умениями без необходимости постоянного осознанного анализа.
Несмотря на впечатляющие успехи в задачах, требующих явного запоминания и воспроизведения информации, оценка неявной памяти в больших языковых моделях (LLM) остается практически неисследованной областью. Неявная память, включающая в себя освоение процедурных навыков, эффекты прайминга и условные рефлексы, проявляется как автоматическое, неосознанное приобретение и использование знаний. В отличие от явной памяти, где информация сознательно извлекается, неявная память влияет на поведение и производительность без осознанного усилия. Изучение способности LLM к неявной памяти требует разработки новых методик оценки, выходящих за рамки традиционного вопросно-ответного формата, и направленных на выявление способности к автоматическому обучению и адаптации, что является ключевым признаком интеллекта.
Оценка неявной памяти требует перехода от простых вопросов и ответов к анализу приобретения навыков и автоматизма. Традиционные методы тестирования языковых моделей, основанные на прямой проверке знаний, оказываются недостаточными для выявления способности к неявному обучению — процессу, при котором навыки формируются без сознательного запоминания. Исследования показывают, что истинная оценка неявной памяти подразумевает создание задач, требующих от модели демонстрации освоенных процедурных навыков, выявления изменений в поведении после воздействия скрытых стимулов или проявления эффектов условных рефлексов. Автоматизм, как ключевой компонент неявной памяти, подразумевает выполнение задач быстро и эффективно, без необходимости сознательного контроля, что, в свою очередь, требует разработки метрик, способных оценить скорость, точность и устойчивость выполнения таких задач языковой моделью.

ImplicitMemBench: Строгий Инструмент Оценки
ImplicitMemBench — это новый оценочный комплекс, включающий в себя набор задач, предназначенных для оценки процедурной памяти, прайминга и классического обусловливания. Эти когнитивные процессы являются ключевыми компонентами неявного обучения, характеризующегося приобретением знаний и навыков без сознательного осознания или намеренных усилий. Комплекс позволяет оценивать способность моделей к усвоению и воспроизведению информации, приобретаемой через опыт и ассоциации, что важно для разработки более адаптивных и эффективных систем искусственного интеллекта, имитирующих механизмы обучения, отличные от традиционного запоминания фактов и правил.
Для обеспечения сопоставимости результатов по всем задачам, входящим в состав ImplicitMemBench, используется стандартизированный протокол оценки автоматизированного поведения — LearningInterferenceTestProtocol. Этот протокол определяет унифицированный подход к представлению стимулов и регистрации ответов, что позволяет исключить влияние вариаций в процедуре проведения эксперимента на оценку производительности моделей. В рамках данного протокола, все задачи используют общие метрики оценки и единый формат данных, что упрощает сравнение результатов между различными задачами и моделями, а также позволяет проводить статистически значимые сравнения с установленным HumanBaseline.
Оценка проводится в условиях “ZeroShotInteraction”, что подразумевает отсутствие какой-либо предварительной адаптации или обучения моделей под конкретные задачи, входящие в состав ImplicitMemBench. Этот подход позволяет проверить способность моделей к обобщению и применению ранее полученных знаний в новых, не встречавшихся ранее ситуациях, имитируя процесс обучения без явного целевого сигнала. По сути, модели оцениваются на их способность выполнять задачи процедурной памяти, прайминга и классического обусловливания непосредственно после представления задачи, без предварительной настройки на конкретные параметры или стратегии решения. Это позволяет более точно оценить фундаментальные возможности моделей в области неявного обучения.
Для обеспечения объективной оценки производительности моделей в ImplicitMemBench, был установлен человеческий базовый уровень (HumanBaseline). Этот уровень представляет собой средние показатели, достигнутые группой людей при выполнении всех задач бенчмарка в одинаковых условиях. HumanBaseline служит критическим ориентиром для сравнения: результаты работы моделей оцениваются относительно человеческих способностей, что позволяет определить, превосходят ли модели людей в определенных аспектах неявного обучения, или, наоборот, уступают им. Полученные данные позволяют оценить прогресс в области искусственного интеллекта и выявить области, требующие дальнейших исследований для достижения производительности, сопоставимой с человеческой.

Парадигмальные Асимметрии: Неравномерное Обучение в LLM
Наши результаты демонстрируют существенные асимметрии в производительности больших языковых моделей (LLM) при выполнении задач, относящихся к процедурному, прайминговому и классическому обучению. Наблюдаемые различия в эффективности по этим трем парадигмам указывают на неравномерное освоение различных типов ассоциативного обучения. LLM демонстрируют вариативность в способности приобретать и применять навыки (процедурное обучение), использовать контекстуальные подсказки для влияния на последующие ответы (прайминговое обучение) и устанавливать связи между стимулами (классическое обучение). Такая асимметрия в производительности указывает на ограничения существующих LLM в моделировании сложных когнитивных процессов, лежащих в основе различных форм обучения.
Оценка производительности в задаче на процедурную память осуществлялась посредством метрики `BinaryAccuracy`, позволяющей количественно определить точность выполнения последовательности действий. Полученные результаты демонстрируют ограничения современных больших языковых моделей (LLM) в области приобретения и совершенствования навыков. Низкие показатели точности указывают на неспособность моделей эффективно усваивать и воспроизводить сложные последовательности, требующие многоступенчатого обучения и адаптации. Анализ метрики `BinaryAccuracy` выявил, что модели испытывают трудности с запоминанием и корректным применением приобретенных навыков в различных контекстах, что свидетельствует об ограниченных возможностях в области процедурной памяти.
В задаче `PrimingTask` для оценки степени неосознанного переноса тематики используется метрика `ThematicInfluenceScoring`. Данная метрика позволяет количественно оценить, насколько предшествующий контекст влияет на последующие ответы модели, имитируя эффект прайминга, наблюдаемый в когнитивной психологии. Результаты показывают, что современные языковые модели демонстрируют ограниченные возможности в ассоциативном обучении, что проявляется в низких показателях `ThematicInfluenceScoring` и указывает на слабость в формировании связей между различными концепциями и темами без явного обучения.
Результаты экспериментов показали, что максимальная производительность современных больших языковых моделей (LLM) по трем парадигмам обучения — процедурной, прайминга и классического обусловливания — составляет 66%. Этот показатель значительно уступает результатам, демонстрируемым человеком при решении аналогичных задач. Данное отставание указывает на ограничения текущих LLM в области неявной памяти и способности к приобретению и удержанию навыков, а также в ассоциативном обучении и переносе тематических влияний. Несмотря на прогресс в области искусственного интеллекта, существующие модели демонстрируют существенный разрыв в производительности по сравнению с человеческим уровнем в задачах, требующих неявного обучения и адаптации.
В ходе экспериментов была выявлена асимметрия в производительности больших языковых моделей (LLM) при выполнении задач на подавление и предпочтение. LLM демонстрируют значительно более низкую точность в задачах, требующих подавления (17.6%), по сравнению с задачами, основанными на определении предпочтений, где точность составляет 75.0%. Данный разрыв указывает на ограниченные возможности LLM в области ингибиторного контроля и способности к избирательному игнорированию информации, в то время как выявление предпочтений является для них относительно более простой задачей.
Результаты тестирования показали, что ни одна из протестированных моделей не достигла порога в 50% точности на представленном бенчмарке. Это свидетельствует о значительной сложности поставленных задач, требующих неявного обучения и запоминания, а также указывает на ограниченные возможности современных больших языковых моделей в области неявной памяти и приобретения навыков, в отличие от явного запоминания фактов. Низкий показатель точности подчеркивает необходимость дальнейших исследований и разработок для улучшения способности моделей к обучению на основе ассоциаций и контекста, а не только на основе прямого программирования.

Разделение Способностей: Более Глубокий Взгляд на Обучение LLM
Наблюдается отчетливое разделение возможностей: превосходство в одном парадигме неявного запоминания не гарантирует успеха в другом. Исследования показали, что языковые модели, демонстрирующие высокие результаты в освоении определенных закономерностей и структур в данных, могут испытывать трудности с аналогичными задачами, представленными в иной форме или требующими иного подхода к обработке информации. Данное явление указывает на то, что неявное обучение у этих моделей не является единой, универсальной способностью, а скорее представляет собой набор отдельных механизмов, каждый из которых специализируется на конкретном типе информации или задаче. Это разделение подчеркивает необходимость более тщательной оценки неявных возможностей, включающей разнообразные тесты и парадигмы, чтобы получить полное представление о реальных возможностях языковых моделей.
Исследования показали, что у больших языковых моделей (LLM) способность к неявному обучению не является единой и универсальной. Вместо этого, отдельные парадигмы неявной памяти, такие как распознавание закономерностей или прогнозирование последовательностей, активируют различные механизмы обучения внутри модели. Превосходство в одной из этих парадигм не гарантирует успеха в другой, что указывает на наличие отдельных, специализированных систем обработки информации. Это открытие ставит под сомнение представление о единой «способности к неявному обучению» и подчеркивает сложность когнитивных процессов, воспроизводимых в LLM, требуя более детального изучения специфики каждого механизма обучения и их взаимодействия.
Наблюдаемое разделение возможностей в обучении больших языковых моделей (LLM) подчеркивает необходимость разработки комплексных оценочных методик, охватывающих широкий спектр неявной памяти. Существующие бенчмарки, фокусирующиеся на оценке лишь одного типа неявного обучения, оказываются недостаточными для полной характеристики способностей модели. Эффективная оценка требует использования разнообразных задач, направленных на выявление различных аспектов неявной памяти, таких как распознавание закономерностей, процедурное обучение и статистическое обучение. Только такой многогранный подход позволит достоверно оценить потенциал LLM в области неявного обучения и выявить ограничения, препятствующие достижению истинного общего интеллекта.
Понимание существующих ограничений больших языковых моделей (LLM) играет ключевую роль в создании более надежных и универсальных архитектур, приближающих искусственный интеллект к истинной общей интеллектуальности. Исследования показывают, что успешное выполнение в одной задаче, требующей неявного обучения, не гарантирует аналогичных результатов в другой, что указывает на наличие отдельных механизмов обучения для различных типов памяти. Это подчеркивает необходимость разработки новых критериев оценки, охватывающих широкий спектр неявных возможностей, а не полагающихся на однозадачные тесты. Дальнейшее изучение этих ограничений позволит сконструировать LLM, способные к более гибкому и адаптивному обучению, что является важным шагом на пути к созданию действительно интеллектуальных систем.

Исследование ImplicitMemBench выявляет фундаментальное ограничение современных больших языковых моделей — неспособность к формированию и использованию неявной памяти, в частности, процедурной памяти и эффектов прайминга. Этот недостаток подчеркивает, что простое увеличение числа параметров не решает проблему автоматизации поведения. Как однажды заметил Пол Эрдёш: «Математическое доказательство — это как охота на дичь: ты должен быть терпелив и использовать все свои инструменты.». Аналогично, для создания действительно интеллектуальных систем необходимо не только накапливать данные, но и разрабатывать архитектуры, способные к формированию и использованию внутренних моделей мира, подобно неявной памяти у человека. Без этого, системы останутся лишь имитаторами, лишенными истинного понимания и способности к адаптации.
Куда Ведет Этот Путь?
Представленный анализ выявил тревожную тенденцию: увеличение числа параметров, хотя и демонстрирует впечатляющие результаты в имитации лингвистических способностей, не приводит к автоматическому появлению механизмов, лежащих в основе подсознательной адаптации. Иллюзия интеллекта, порождаемая масштабированием, не должна заслонять фундаментальный вопрос: может ли модель, лишенная истинной процедурной памяти, эффективно функционировать в динамичной, непредсказуемой среде? Кажется, что простого увеличения объема данных недостаточно для эмуляции глубинных когнитивных процессов.
Необходимо отбросить наивную веру в то, что любой алгоритм, «работающий на тестах», обладает внутренней корректностью. Будущие исследования должны быть сосредоточены не на увеличении вычислительных ресурсов, а на разработке новых архитектур, имитирующих принципы обучения, основанного на подкреплении и ассоциациях. Важно стремиться к минимализму в дизайне, осознавая, что каждый лишний байт кода — потенциальная точка отказа, скрытая ошибка абстракции.
В конечном счете, истинный прогресс в области искусственного интеллекта заключается не в создании машин, способных имитировать разум, а в понимании того, что делает разум разумным. И, возможно, ключ к этому лежит не в количестве параметров, а в элегантности и точности алгоритмов, лежащих в их основе.
Оригинал статьи: https://arxiv.org/pdf/2604.08064.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Квантовый импульс для нейросетей: новый подход к распознаванию изображений
- Искусственный интеллект, планирующий путешествия: новый подход к сложным задачам
- Искусственный интеллект и квантовая физика: кто кого?
- Взрыв скорости: Оптимизация внимания для современных GPU
- Знаем, чего не знаем: Моделирование вероятностных рассуждений на основе множественных доказательств
- Искусственный интеллект в действии: как расширяется сфера возможностей?
- Учимся с интересом: как создать AI-репетитора, вдохновлённого лучшими учителями
- Языковые модели и границы возможного: что делает язык человеческим?
- Quantum Musings: A Conversation with Bert de Jong
- Понять Мысли Ученика: Как Искусственный Интеллект Расшифровывает Решения по Математике?
2026-04-10 19:02