Нейросети учатся мыслить символически: новый подход к интерпретации и гибридным моделям

Автор: Денис Аветисян


Исследователи представили SymTorch, фреймворк, автоматизирующий процесс выделения символических представлений из компонентов нейронных сетей, открывая новые возможности для анализа и построения гибридных моделей.

🚀 Квантовые новости

Подключайся к потоку квантовых мемов, теорий и откровений из параллельной вселенной.
Только сингулярные инсайты — никакой скуки.

Присоединиться к каналу
С использованием SymTorch осуществляется символьная дистилляция компонентов обученной нейронной сети PyTorch, заключающаяся в обертывании этих компонентов и сборе данных ввода-вывода, после чего, посредством PySR, производится символическая регрессия для получения выражений, аппроксимирующих поведение сети на различных уровнях сложности, с возможностью замены исходных компонентов на выбранные уравнения и формирования гибридной нейро-символической модели.
С использованием SymTorch осуществляется символьная дистилляция компонентов обученной нейронной сети PyTorch, заключающаяся в обертывании этих компонентов и сборе данных ввода-вывода, после чего, посредством PySR, производится символическая регрессия для получения выражений, аппроксимирующих поведение сети на различных уровнях сложности, с возможностью замены исходных компонентов на выбранные уравнения и формирования гибридной нейро-символической модели.

SymTorch автоматизирует символьную регрессию нейронных сетей для повышения интерпретируемости и создания нейро-символических моделей, применимых в научных исследованиях и анализе больших языковых моделей.

Несмотря на перспективность символической дистилляции нейронных сетей для выявления скрытых закономерностей и повышения интерпретируемости, ее практическое применение затруднено сложностью интеграции методов символьной регрессии в существующие рабочие процессы машинного обучения. В данной работе представлена библиотека ‘SymTorch: A Framework for Symbolic Distillation of Deep Neural Networks’, автоматизирующая процесс дистилляции отдельных компонентов нейронных сетей в человекочитаемые математические выражения. SymTorch решает ключевые инженерные задачи, такие как передача данных между GPU и CPU, кэширование входных-выходных данных и бесшовный переход между нейронными и символьными вычислениями, что позволяет создавать гибридные нейро-символические модели. Может ли автоматизация символьной дистилляции открыть новые возможности для анализа сложных моделей, включая большие языковые модели, и ускорить научные открытия?


Непрозрачность Нейронных Сетей: Вызов для Алгоритмической Чистоты

Несмотря на впечатляющие успехи в решении сложных задач, глубокие нейронные сети зачастую остаются непрозрачными, подобно «чёрному ящику». Это затрудняет понимание принципов, по которым сеть принимает решения, и, как следствие, подрывает доверие к её результатам. Отсутствие прозрачности препятствует эффективной отладке и совершенствованию моделей, поскольку сложно выявить и исправить ошибки в логике работы сети. Вместо ясного понимания, исследователи и пользователи сталкиваются с ситуацией, когда сеть демонстрирует высокую точность, но внутренние механизмы остаются скрытыми, что ограничивает возможности её адаптации и применения в критически важных областях, требующих объяснимости и контроля.

Традиционные методы анализа, такие как изучение весов и активаций нейронных сетей, часто оказываются неэффективными при попытке понять, каким образом сложные нейронные сети принимают решения. Эти методы, хотя и предоставляют некоторую информацию о внутренней работе сети, не позволяют выделить чёткие, понятные человеку закономерности или логику, лежащую в основе её поведения. Попытки интерпретировать отдельные нейроны или связи в контексте сложной архитектуры часто приводят к упрощениям, которые не отражают истинную сложность процесса принятия решений. В результате, несмотря на впечатляющую производительность, понимание причин, а не только факта правильного ответа, остаётся серьёзной проблемой, ограничивающей возможность доверять и совершенствовать эти системы.

SymTorch: Символьная Дистилляция как Путь к Алгоритмической Элегантности

SymTorch — это новый программный фреймворк, использующий символьную регрессию для аппроксимации математических функций, усвоенных нейронными сетями. В отличие от традиционных методов дистилляции, SymTorch не требует повторного обучения исходной сети. Вместо этого, он анализирует поведение сети во время прямого прохода (forward pass) и строит математическую модель, эквивалентную функциональности определенного слоя или части сети. Эта модель, полученная путем символьной регрессии, затем может быть использована вместо исходного слоя, обеспечивая потенциальное ускорение вычислений и снижение потребления ресурсов. Фактически, SymTorch стремится заменить сложные нейронные вычисления эквивалентными, но более эффективными математическими выражениями.

Эффективность SymTorch обеспечивается использованием forward hooks и кэширования активаций, позволяющих захватывать поведение нейронной сети без необходимости её повторного обучения. Forward hooks перехватывают выходные данные каждого слоя во время прямого прохода, а кэширование активаций сохраняет эти данные для последующего использования. Такой подход позволяет SymTorch анализировать функционирование сети “на лету”, не требуя дополнительных вычислительных затрат на тренировку или валидацию, и использовать полученные данные для построения символьной аппроксимации, заменяющей оригинальные слои сети.

В SymTorch для упрощения задачи символьной регрессии и повышения производительности применяется метод главных компонент (PCA) для снижения размерности. Этот подход позволяет уменьшить количество входных параметров для символьной регрессии, что особенно важно при аппроксимации многослойных перцептронов (MLP). В результате, заменяя MLP-слои символическими аналогами, полученными с помощью PCA и символьной регрессии, достигается ускорение инференса больших языковых моделей (LLM) на 8.3%.

Для снижения вычислительной нагрузки в transformer-моделях предлагается замена MLP-слоев на символические суррогатные модели, использующие PCA для понижения и последующего восстановления размерности входных и выходных данных.
Для снижения вычислительной нагрузки в transformer-моделях предлагается замена MLP-слоев на символические суррогатные модели, использующие PCA для понижения и последующего восстановления размерности входных и выходных данных.

Физически Обоснованные и Графовые Сети: Проверка на Алгоритмическую Корректность

Сеть, обученная с использованием метода Physics-Informed Neural Networks (PINNs), может быть проанализирована с помощью SymTorch для извлечения символьного представления выученной физической модели. Этот процесс позволяет получить аналитическое выражение, которое можно верифицировать путем сравнения с известными физическими уравнениями, например, уравнением теплопроводности в одном измерении. SymTorch предоставляет инструменты для преобразования численного решения, полученного PINN, в символическую форму, обеспечивая возможность проверки соответствия модели установленным физическим законам и упрощая интерпретацию результатов моделирования. Такой подход повышает доверие к моделям, обученным с использованием PINN, и обеспечивает возможность их использования в задачах, требующих высокой точности и надежности.

Графовые нейронные сети (GNN) и большие языковые модели (LLM) также поддаются символьной дистилляции, что позволяет получить интерпретируемые сведения об их процессах принятия решений. Процесс символьной дистилляции заключается в извлечении символического представления логики, используемой моделью, что позволяет анализировать и понимать, как модель приходит к определенным выводам. Это особенно важно для сложных моделей, где «черный ящик» затрудняет понимание причинно-следственных связей. Извлеченные символические правила могут быть проверены на соответствие экспертным знаниям или другим источникам информации, повышая доверие к модели и позволяя выявлять потенциальные ошибки или предвзятости.

Символическая дистилляция сетей, обученных с учетом физических принципов (PINN), может быть выполнена менее чем за 3 минуты на SoC Apple M4 Max, что позволяет успешно восстанавливать известные физические законы. Замена многослойных перцептронов (MLP) на символические суррогаты приводит к увеличению перплексии на 3.14 по сравнению с базовым значением 10.62. Данный результат демонстрирует возможность эффективного извлечения интерпретируемых моделей из PINN с использованием современных аппаратных средств и методов символической регрессии.

Результаты применения нейронных сетей (NN) и физически информированных нейронных сетей (PINN) демонстрируют, что PINN обеспечивает более точное приближение к истинному решению одномерного уравнения теплопроводности при <span class="katex-eq" data-katex-display="false"> \alpha = 0.2 </span> по сравнению с обычной нейронной сетью.
Результаты применения нейронных сетей (NN) и физически информированных нейронных сетей (PINN) демонстрируют, что PINN обеспечивает более точное приближение к истинному решению одномерного уравнения теплопроводности при \alpha = 0.2 по сравнению с обычной нейронной сетью.

Оптимизация Компромиссов и Обеспечение Надежности: Алгоритмическая Дисциплина

Символьная дистилляция открывает возможности для многоцелевой оптимизации, позволяя исследовать фронт Парето и выявлять решения, оптимально сочетающие точность, сложность и интерпретируемость. Этот подход, в отличие от поверхностного поиска, не ограничивается поиском единственного “лучшего” решения, а позволяет оценить целый спектр компромиссных вариантов. В процессе оптимизации учитываются различные факторы: высокая точность предсказаний, компактность модели, облегчающая ее развертывание, и понятность логики принятия решений. Исследование фронта Парето позволяет исследователям и разработчикам осознанно выбирать модель, наилучшим образом соответствующую конкретным требованиям и ограничениям задачи, будь то необходимость высокой производительности, ограниченные вычислительные ресурсы или потребность в прозрачности и объяснимости работы системы. Такой подход открывает новые возможности для создания интеллектуальных систем, которые не только эффективно решают поставленные задачи, но и позволяют понять, как именно они это делают.

Для повышения способности символических моделей к обобщению и предотвращения переобучения применяются различные методы регуляризации. В частности, L1-регуляризация способствует созданию более простых и разреженных моделей, отбирая наиболее значимые компоненты и уменьшая влияние незначительных. Параллельно, использование расхождения Кулбака-Лейблера (KL Divergence) в качестве функции потерь позволяет приблизить распределение вероятностей, предсказываемое символической моделью, к распределению, заданному исходной нейронной сетью. Это стимулирует создание символических представлений, которые не только точно отражают поведение исходной сети, но и обладают большей устойчивостью к незначительным изменениям входных данных, тем самым улучшая их способность к обобщению на новых, ранее не виденных примерах.

Применение среднеквадратичной ошибки (MSE Loss) играет ключевую роль в оценке точности символьных представлений, полученных в результате дистилляции нейронных сетей. Этот показатель позволяет количественно измерить, насколько полно и адекватно упрощенная символьная модель воспроизводит поведение исходной, более сложной нейронной сети. Минимизация MSE Loss в процессе обучения символьной модели гарантирует, что полученное представление не только компактно и интерпретируемо, но и сохраняет высокую степень соответствия с оригинальной моделью, что критически важно для обеспечения надежности и точности прогнозов. MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 В контексте символьной регрессии, MSE служит объективным критерием для сравнения различных упрощенных моделей и выбора наиболее оптимального решения, которое наилучшим образом аппроксимирует исходную функцию.

Для аппроксимации поведения локальной модели используется SLIME, который позволяет, выбирая интересующую точку <span class="katex-eq" data-katex-display="false">\mathbf{x}^{\\*}</span>, построить символическую модель на основе выборки точек в её окрестности.
Для аппроксимации поведения локальной модели используется SLIME, который позволяет, выбирая интересующую точку \mathbf{x}^{\\*}, построить символическую модель на основе выборки точек в её окрестности.

Представленная работа демонстрирует стремление к созданию алгоритмов, чья корректность может быть доказана, а не просто эмпирически подтверждена тестами. SymTorch, автоматизируя символьную регрессию компонентов нейронных сетей, позволяет перейти от «черного ящика» к моделям, чью логику можно проанализировать и проверить. Как отмечал Эдсгер Дейкстра: «Программы должны быть написаны для людей, а не для компьютеров.» Данный подход к интерпретируемости, особенно в контексте нейронно-символьных моделей и анализа больших языковых моделей, подтверждает важность математической чистоты и непротиворечивости алгоритмов, позволяя создавать системы, чье поведение предсказуемо и обоснованно.

Что Дальше?

Представленный фреймворк SymTorch, несомненно, представляет собой шаг к примирению двух миров — статистической силы глубоких нейронных сетей и математической строгости символьных вычислений. Однако, пусть N стремится к бесконечности — что останется устойчивым? Автоматизация символьной регрессии компонентов сети — это лишь первый акт. Настоящая проблема заключается в масштабируемости и обобщающей способности полученных символьных выражений. Достаточно ли текущих методов для извлечения действительно значимых и интерпретируемых правил из сложных, переобученных моделей?

Особенно остро стоит вопрос о применении к крупным языковым моделям. Извлечение символьных представлений из этих «черных ящиков» — не просто задача интерпретируемости, но и проверка фундаментальной возможности представления сложного семантического знания в виде компактных, доказуемых правил. Если символьная регрессия не сможет выявить устойчивые закономерности, то все усилия могут оказаться лишь красивой, но тщетной попыткой навести порядок в хаосе параметров.

Будущие исследования должны сосредоточиться на разработке более надежных метрик для оценки качества символьных выражений, а также на интеграции принципов физически обоснованного машинного обучения для ограничения пространства поиска и обеспечения физической осмысленности полученных результатов. В конечном итоге, истинный успех будет заключаться не в простом «извлечении» знаний, а в создании гибридных моделей, которые объединяют сильные стороны обоих подходов.


Оригинал статьи: https://arxiv.org/pdf/2602.21307.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-02-26 10:54