Автор: Денис Аветисян
Новый метод позволяет повысить точность решения математических задач, целенаправленно обновляя лишь небольшую часть нейронной сети.

Исследование представляет метод Constructive Circuit Amplification (CCA) для улучшения математического рассуждения в больших языковых моделях посредством выборочного обновления ключевых подсетей.
Несмотря на впечатляющие возможности больших языковых моделей (LLM), их способность к сложному логическому мышлению, в частности в математических задачах, остаётся областью для улучшения. В данной работе, ‘Constructive Circuit Amplification: Improving Math Reasoning in LLMs via Targeted Sub-Network Updates’, предлагается метод выборочного усиления ключевых «схем» внутри модели, ответственных за правильное решение. Показано, что целенаправленное обновление лишь небольшой части компонентов сети позволяет значительно повысить точность математических рассуждений — до +11.4% — при минимальном влиянии на другие способности модели. Возможно ли, таким образом, создавать более эффективные и специализированные LLM, оптимизированные для решения конкретных задач, без ущерба для их общей компетентности?
Рождение больших языковых моделей: поиск надежных критериев оценки
В последнее время наблюдается стремительное развитие больших языковых моделей (БЯМ), которые значительно продвинули область обработки естественного языка. Эти модели демонстрируют впечатляющие возможности в генерации текста, переводе и понимании языка, однако, для полноценной оценки их потенциала и выявления возможных ограничений, необходима тщательная и всесторонняя проверка. Простое измерение точности или скорости недостаточно; требуется анализ способности БЯМ к логическому мышлению, решению сложных задач и, что особенно важно, к предотвращению генерации ложной или вводящей в заблуждение информации. Отсутствие надежных методов оценки может привести к неверной оценке возможностей этих моделей и, как следствие, к их неэффективному или даже опасному применению в различных областях, начиная от автоматизированного создания контента и заканчивая принятием важных решений.
Существующие системы оценки производительности больших языковых моделей зачастую оказываются неспособны выявить тонкости логического мышления и предрасположенность к генерации ложной информации. Традиционные бенчмарки, как правило, концентрируются на поверхностном анализе текста, не затрагивая способность модели к критическому осмыслению данных и проверке достоверности информации. Это приводит к ситуации, когда модели, демонстрирующие высокие результаты в стандартных тестах, могут легко генерировать вводящие в заблуждение или неточные утверждения в реальных сценариях. Недостаточная оценка способности к рассуждению и критическому мышлению представляет серьезную проблему, поскольку ограничивает возможности надежного применения больших языковых моделей в областях, требующих высокой точности и достоверности, таких как медицина, юриспруденция и журналистика.
Разнообразные тесты: проверка возможностей больших языковых моделей
Для оценки широкого спектра знаний и понимания больших языковых моделей (LLM) используется набор эталонных тестов, включающий MMLU (Massive Multitask Language Understanding) и TriviaQA. MMLU представляет собой коллекцию задач, охватывающих 57 дисциплин, включая гуманитарные, естественнонаучные и социальные науки, и требует от моделей демонстрации понимания широкого круга тем. TriviaQA, в свою очередь, оценивает способность моделей отвечать на вопросы, требующие извлечения информации из нескольких источников, и проверки фактов. Использование этих и других подобных бенчмарков позволяет количественно оценить эффективность LLM в различных областях знаний и выявить области, требующие дальнейшего улучшения.
Тестовый набор GSM-Symbolic специально разработан для оценки способностей больших языковых моделей (LLM) к математическому рассуждению. Многие LLM демонстрируют слабость в решении математических задач, требующих не просто запоминания фактов, а логического вывода и применения математических принципов. GSM-Symbolic состоит из словесных задач, требующих решения математических выражений, таких как $x + y = z$, и проверки правильности полученных ответов. Он позволяет более точно оценить способность LLM к решению задач, требующих последовательного применения математических операций и логического анализа, чем общие тесты на знание фактов.
Несмотря на ценность используемых бенчмарков, таких как MMLU и TriviaQA, важно понимать, что каждый из них предоставляет лишь ограниченное представление об общем интеллекте языковой модели. Оценка по отдельным метрикам может быть подвержена манипуляциям и поверхностной оптимизации, когда модель обучается специально для достижения высоких результатов на конкретном тесте, не демонстрируя при этом реального улучшения понимания или способности к обобщению. Это явление, известное как «игрофикация» бенчмарков, может приводить к завышенным оценкам производительности и искажению представления о реальных возможностях модели в более широком контексте.

LoRA: параметрически-эффективная тонкая настройка больших языковых моделей
Метод LoRA (Low-Rank Adaptation) представляет собой параметрически-эффективный подход к адаптации больших языковых моделей (LLM) к конкретным задачам. Вместо обновления всех параметров предварительно обученной модели, LoRA вводит небольшое количество обучаемых параметров — низкоранговые матрицы, которые добавляются к существующим слоям LLM. Этот процесс позволяет значительно снизить вычислительные затраты и требования к объему памяти, поскольку обновляется лишь малая доля от общего числа параметров модели. Фактически, LoRA позволяет адаптировать LLM к новым задачам, сохраняя при этом большую часть исходных знаний и возможностей, за счет эффективной адаптации лишь небольшого подмножества параметров.
Метод LoRA (Low-Rank Adaptation) значительно снижает вычислительные затраты и требования к объему памяти по сравнению с полной перенастройкой больших языковых моделей. Полная перенастройка предполагает обновление всех параметров модели, что требует значительных ресурсов, особенно для моделей с миллиардами параметров. LoRA, напротив, замораживает предварительно обученные веса модели и внедряет небольшое количество обучаемых параметров — матрицы низкого ранга — в каждый слой. Это позволяет обучать лишь малую часть от общего числа параметров, обычно менее 1%, что приводит к сокращению потребления GPU-памяти и времени обучения. Например, для модели с 7 миллиардами параметров, LoRA может потребовать обучения всего лишь около 70 миллионов параметров, что существенно снижает как вычислительную сложность, так и требования к хранению обученной модели.
Подход LoRA значительно ускоряет процесс экспериментирования с большими языковыми моделями (LLM) благодаря снижению вычислительных затрат и требований к хранилищу данных. Традиционная полная настройка требует обновления всех параметров модели, что является ресурсоемким процессом. LoRA, напротив, позволяет обучать лишь небольшое количество дополнительных параметров, что существенно сокращает время, необходимое для адаптации LLM к конкретной задаче или набору данных. Это делает кастомизацию LLM более доступной для широкого круга пользователей и организаций, особенно тех, у которых ограничены вычислительные ресурсы, и позволяет проводить больше итераций экспериментов для достижения оптимальных результатов в различных приложениях, таких как генерация текста, машинный перевод и ответы на вопросы.
Влияние на развитие больших языковых моделей и перспективы на будущее
Систематическая оценка больших языковых моделей (LLM) с использованием стандартизированных наборов данных, таких как GSM-Symbolic Benchmark, TriviaQA и MMLU, является ключевым инструментом для отслеживания прогресса в области рассуждений и накопления знаний этими системами. Использование разнообразных бенчмарков позволяет не только количественно оценить улучшения в конкретных областях, например, в решении математических задач или ответах на вопросы, требующие общих знаний, но и выявить потенциальные слабые места в архитектуре и обучении LLM. Сравнение результатов на этих наборах данных во времени предоставляет ценную информацию о том, насколько эффективно разрабатываются новые методы и алгоритмы, и способствует более целенаправленному развитию искусственного интеллекта, способного к сложным когнитивным процессам.
Предложенный метод Конструктивного Усиления Цепей (CCA) продемонстрировал значительное повышение точности — до 11.4% — в решении задач из бенчмарка GSM-Symbolic, при этом изменения коснулись лишь 1.59% компонентов модели. Этот результат свидетельствует о возможности целенаправленного улучшения математического рассуждения больших языковых моделей без ущерба для их общих способностей. Особенно важно, что столь существенный прирост достигается за счет минимального вмешательства в структуру модели, что открывает перспективы для эффективной и ресурсосберегающей оптимизации существующих LLM, позволяя им демонстрировать более высокие результаты в задачах, требующих логического мышления и числовых вычислений.
Методы параметрически-эффективной тонкой настройки, такие как LoRA, существенно расширяют возможности разработки больших языковых моделей (LLM). Вместо традиционной полной перенастройки всех параметров модели, LoRA позволяет модифицировать лишь небольшую часть, что значительно снижает вычислительные затраты и требования к памяти. Это, в свою очередь, делает процесс обучения и адаптации LLM доступным для более широкого круга исследователей и разработчиков, не располагающих огромными вычислительными ресурсами. Ускорение итераций, благодаря снижению времени обучения, способствует более быстрому экспериментированию и совершенствованию моделей, открывая новые перспективы для решения сложных задач в области искусственного интеллекта и обработки естественного языка. Такой подход не только удешевляет разработку, но и позволяет быстрее реагировать на новые данные и требования, что особенно важно в динамично развивающейся сфере LLM.
Исследования показали, что применение метода Конструктивного Усиления Цепей (CCA) не привело к существенным изменениям в результатах тестов на массивах MMLU, TriviaQA и TruthfulQA. Это указывает на то, что, фокусируясь на улучшении математических способностей посредством CCA, удалось избежать ухудшения производительности модели в широком спектре других задач, включающих общее знание и способность к правдивым ответам. Сохранение стабильности в этих областях является важным показателем, демонстрирующим, что внесенные изменения в структуру модели не привели к нежелательным побочным эффектам и не снизили её общую компетентность. Данный факт подчеркивает потенциал CCA как метода точечной оптимизации, позволяющего улучшить конкретные навыки без ущерба для универсальности языковой модели.
Перспективные исследования в области оценки больших языковых моделей (LLM) должны быть направлены на создание принципиально новых метрик и тестовых наборов, способных выявлять истинное понимание и способность к обобщению, а не просто демонстрировать поверхностные показатели производительности. Существующие бенчмарки, такие как MMLU и TriviaQA, часто фокусируются на запоминании фактов или распознавании паттернов, не раскрывая в полной мере способность модели к логическому мышлению и решению новых, нестандартных задач. Необходимо разрабатывать тесты, которые требуют от LLM не просто воспроизведения заученной информации, а активного применения знаний для анализа ситуаций, формулирования гипотез и принятия обоснованных решений. Это потребует создания более сложных сценариев, моделирующих реальные проблемы, и использования метрик, оценивающих не только правильность ответа, но и качество рассуждений, креативность и способность к адаптации к новым условиям.
Исследование, представленное в данной работе, демонстрирует, что улучшение математических способностей больших языковых моделей возможно не через глобальную перестройку, а через точечное усиление ключевых «цепей» рассуждений. Этот подход, названный Constructive Circuit Amplification, напоминает скорее выращивание, чем конструирование. Как однажды заметил Дональд Дэвис: «Системы — это не инструменты, а экосистемы. Их нельзя построить, только вырастить». Попытки оптимизировать каждую деталь, вероятно, приведут к потере гибкости и способности адаптироваться к новым задачам. Вместо этого, целенаправленное усиление отдельных компонентов, отвечающих за корректное рассуждение, представляется более перспективным путем к созданию действительно разумных систем. Идеальная архитектура, безусловно, миф, но стремление к ней посредством методов, подобных CCA, позволяет приблизиться к созданию более надежных и понятных моделей.
Что дальше?
Предложенный подход к избирательному обновлению подсетей, названный Constructive Circuit Amplification, напоминает скорее не конструирование механизма, а культивирование сада. Улучшение математических способностей языковой модели достигается не путём грубого вмешательства, а путём бережного взращивания ключевых «ростков» рассуждений. Однако, следует признать, что идентификация этих самых ростков — задача, требующая не меньшего внимания, чем их дальнейшее укрепление. Неизбежно, каждое архитектурное решение — это пророчество о будущей ошибке, и акцент на отдельных подсетях может привести к неожиданным последствиям в других областях функционирования модели.
Устойчивость системы не в изоляции компонентов, а в их способности прощать ошибки друг друга. Будущие исследования должны сосредоточиться не только на усилении «правильных» цепей, но и на создании механизмов, смягчающих последствия неточностей в других частях модели. Интересно, как подобный подход может быть адаптирован для других когнитивных задач, требующих более сложных и нелинейных рассуждений. Попытки построить идеально рациональную модель обречены на неудачу; гораздо перспективнее — выращивать систему, способную адаптироваться и учиться на своих ошибках.
В конечном счете, поиск путей улучшения математических способностей больших языковых моделей — это лишь частный случай более широкой задачи — создания систем, способных к осмысленному взаимодействию с миром. И в этом процессе важно помнить: система — это не машина, а экосистема, и её развитие требует терпения, внимания и глубокого понимания её внутренних закономерностей.
Оригинал статьи: https://arxiv.org/pdf/2512.16914.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Быстрая генерация текста: от авторегрессии к диффузионным моделям
- Математика и код: Ключ к оценке искусственного интеллекта
- Адаптивная Квантизация: Новый Подход к Сжатию Больших Языковых Моделей
- Эмоциональный отпечаток: Как мы научили ИИ читать душу (и почему рейтинги вам врут)
- Ранговая оптимизация без градиента: Новые границы эффективности
- Искусство отбора данных: Новый подход к обучению генеративных моделей
- Искусственный интеллект и рефакторинг кода: что пока умеют AI-агенты?
- Геометрия Хаоса: Распознавание Образов в Сложных Системах
- Генеративные сети и квантовая энергия: новый взгляд на регуляризацию
- Восстановление потенциала Шрёдингера: новый численный подход
2025-12-21 16:24