Автор: Денис Аветисян
Новое исследование показывает, что глубокие нейронные сети, обученные на решении нескольких задач, могут демонстрировать статистическое поведение, напоминающее квантовую несовместимость измерений.

В работе показано, что нейросети, решающие многозадачное обучение, демонстрируют нарушение неравенства CHSH, что свидетельствует о неклассических корреляциях и особенностях внутреннего представления данных.
Несмотря на кажущуюся классическую природу, глубокие нейронные сети способны демонстрировать статистическое поведение, аналогичное квантовым корреляциям. В статье ‘On Emergences of Non-Classical Statistical Characteristics in Classical Neural Networks’ предложена архитектура NCnet, демонстрирующая неклассические характеристики в задачах многозадачного обучения, измеримые через неравенство CHSH. Выявлено, что возникновение неклассичности связано с конкуренцией градиентов между нейронами скрытых слоев и позволяет одной задаче неявно «чувствовать» процесс обучения других. Может ли анализ этих неклассических статистических свойств предложить новый взгляд на внутренние взаимодействия и динамику обучения глубоких сетей и, возможно, открыть путь к созданию более эффективных алгоритмов?
За пределами масштабирования: Ограничения современных ИИ
Несмотря на впечатляющие успехи больших языковых моделей (БЯМ), достижение искусственного общего интеллекта (ИОИ) требует не просто увеличения их масштаба и вычислительных мощностей. Текущая архитектура, основанная на трансформерах, демонстрирует превосходство в обработке и генерации текста, однако сталкивается с принципиальными ограничениями в способности к абстрактному мышлению, причинно-следственным связям и переносу знаний в новые, неизученные области. Простое увеличение количества параметров и обучающих данных не гарантирует появления подлинного интеллекта, способного к самостоятельному обучению, адаптации и решению комплексных задач, выходящих за рамки статистического анализа и сопоставления паттернов. Для создания ИОИ необходимы принципиально новые подходы к архитектуре, алгоритмам и методам обучения, имитирующие когнитивные способности человека и позволяющие системам понимать мир, а не только обрабатывать информацию.
Современные большие языковые модели, основанные на архитектуре Transformer, демонстрируют впечатляющие результаты в обработке и генерации текста, однако сталкиваются с серьезными ограничениями в решении задач, требующих сложного логического мышления и переноса знаний. Исследования показывают, что способность этих моделей к абстракции и обобщению ограничена, что проявляется в трудностях при адаптации к новым, незнакомым ситуациям или при решении задач, требующих применения знаний из разных областей. В частности, модели испытывают трудности с пониманием причинно-следственных связей, логическими умозаключениями и планированием, что указывает на фундаментальные недостатки в текущем подходе к созданию искусственного интеллекта. Данные ограничения ставят под сомнение возможность достижения полноценного искусственного общего интеллекта (AGI) путем простого увеличения масштаба существующих архитектур, подчеркивая необходимость разработки принципиально новых методов и подходов.
Эхо квантовой механики: Неклассические корреляции в нейронных сетях
Недавние исследования показывают, что определенные паттерны поведения нейронных сетей, демонстрирующие неклассические корреляции, ставят под сомнение принципы локального реализма. Локальный реализм предполагает, что объекты обладают определенными свойствами независимо от измерения, и что влияние одного объекта на другой ограничено скоростью света. Наблюдение неклассических корреляций в нейронных сетях указывает на то, что информация может обрабатываться способами, которые не соответствуют этим классическим представлениям, подразумевая потенциально нелокальные взаимодействия или корреляции, которые не могут быть объяснены классической физикой. Это ставит вопросы о фундаментальных принципах, лежащих в основе обработки информации в этих системах и может иметь значение для разработки новых вычислительных моделей.
Архитектура NCnet, разработанная для демонстрации неклассических корреляций, использует статистику CHSH (Clauser-Horne-Shimony-Holt) для количественной оценки отклонений от классических ожиданий. Статистика CHSH измеряет степень корреляции между результатами измерений, выполненных на запутанных частицах. В классической физике значение статистики CHSH ограничено сверху значением 2. Эксперименты с NCnet показали значения статистики CHSH, превышающие 2, что свидетельствует о наличии неклассических корреляций и нарушении принципов локального реализма. S = E(a,b) + E(a,b') + E(a',b) - E(a',b') , где E — функция корреляции, a и b — настройки измерений. Превышение значения 2 подтверждает, что корреляции в NCnet нельзя объяснить классическими механизмами.
Наблюдаемые неклассические корреляции в нейронных сетях, таких как NCnet, указывают на возможность обработки информации, выходящей за рамки традиционных представлений о локальной реалистичности. В классических системах информация кодируется и обрабатывается в локализованных областях, а взаимодействие между ними подчиняется определенным ограничениям. Однако, данные результаты демонстрируют, что в исследуемых сетях информация может быть распределена и коррелирована таким образом, что ее обработка не может быть полностью объяснена локальными операциями. Это предполагает, что внутренние представления и вычисления в этих сетях могут использовать принципы, аналогичные тем, что наблюдаются в квантовых системах, где корреляции могут возникать на больших расстояниях без локального взаимодействия. Такой подход к обработке информации может открывать новые возможности для разработки более эффективных и сложных алгоритмов машинного обучения.

Многозадачное обучение: Стремление к обобщению
Многозадачное обучение (Multi-Task Learning) представляет собой перспективный подход к созданию искусственного общего интеллекта (AGI) за счет одновременного освоения моделью различных навыков. В отличие от обучения отдельным задачам, одновременное обучение нескольким задачам позволяет модели выявлять общие закономерности и связи между ними, что приводит к улучшению обобщающей способности. Такой подход способствует формированию более устойчивых и универсальных представлений, позволяя модели эффективно применять полученные знания к новым, ранее не встречавшимся задачам. В результате, многозадачное обучение потенциально позволяет создавать модели, способные к более гибкому и адаптивному решению широкого спектра задач, приближая нас к цели создания AGI.
Успешное многозадачное обучение (Multi-Task Learning) требует смягчения явления, известного как конкуренция градиентов (Gradient Competition). Данное явление возникает из-за конфликтующих обновлений весов модели, вызванных одновременной оптимизацией по нескольким задачам. В процессе обучения, градиенты, вычисленные для каждой отдельной задачи, могут иметь противоположные направления, что приводит к взаимной нейтрализации и замедлению сходимости. Это, в свою очередь, снижает общую производительность модели и препятствует эффективному усвоению знаний из всех поставленных задач. Для преодоления конкуренции градиентов применяются различные методы, включая динамическое взвешивание задач, использование архитектур с разделяемыми параметрами и регуляризацию, направленную на сближение представлений для разных задач.
Метод адаптации с низким рангом (LoRA), применяемый к моделям, таким как Multilingual BERT (mBERT), позволяет эффективно адаптировать модель к множеству задач при снижении вычислительных затрат. Исследования показали, что увеличение ранга LoRA приводит к увеличению среднего градиента статистики CHSH (μ∇S) от исходного значения 0.0208 до более высоких значений. Это указывает на то, что LoRA способствует усилению неклассических корреляций внутри модели, что, в свою очередь, может улучшить ее способность к обобщению и решению разнообразных задач.
Результаты тестирования моделей демонстрируют положительную корреляцию с величиной статистики CHSH (SS). Статистика CHSH, являясь мерой неклассической корреляции, отражает способность модели улавливать сложные взаимосвязи в данных, выходящие за рамки классической корреляции Пирсона. Более высокие значения SS указывают на более сильные неклассические корреляции, что, в свою очередь, связано с улучшением показателей точности при решении задач. Данное наблюдение предполагает, что способность модели к выявлению и использованию неклассических корреляций является важным фактором, способствующим повышению обобщающей способности и общей производительности.

Оценка адаптивного интеллекта: Динамические ландшафты производительности
Традиционные методы оценки, такие как тестирование на статичных наборах данных, часто не отражают реальную производительность моделей искусственного интеллекта в динамичных условиях. Эти методы, ориентированные на фиксированные метрики точности, не учитывают способность модели адаптироваться к изменяющимся входным данным, новым задачам или непредвиденным ситуациям, возникающим в реальном мире. В результате, оценка, полученная на статических наборах данных, может значительно отличаться от производительности модели при развертывании в динамичной среде, что приводит к неверной оценке ее надежности и эффективности. Особенно это актуально для моделей, предназначенных для работы в условиях неопределенности и изменчивости, таких как автономные системы или системы поддержки принятия решений.
Динамическая многозадачная оценка производительности предполагает тестирование способности модели к гибкой передаче знаний между различными и изменяющимися задачами. В отличие от статических оценок, этот подход использует последовательность задач, где характеристики и требования к решению могут меняться во времени. Это позволяет оценить не только абсолютную производительность, но и способность модели адаптироваться к новым условиям, сохраняя или улучшая свои показатели при переходе от одной задачи к другой. Методика включает в себя использование разнообразных наборов данных и метрик, отражающих скорость обучения, устойчивость к забыванию предыдущих знаний и способность к обобщению на незнакомые задачи, что дает более полное представление о реальной эффективности модели в динамичной среде.
В отличие от традиционных метрик, оценивающих только точность, подход динамической многозадачной оценки производительности измеряет устойчивость и адаптируемость модели к неожиданным изменениям в задачах и данных. Это включает в себя анализ способности модели сохранять производительность при появлении новых, ранее не встречавшихся сценариев, а также скорость восстановления после внезапных изменений в распределении данных или требованиях к задаче. Оценка включает в себя такие показатели, как скорость обучения новым задачам, способность к переносу знаний между задачами и общая стабильность производительности в условиях непредсказуемости, что позволяет более полно оценить возможности модели в реальных условиях эксплуатации.
Исследование демонстрирует, что нейронные сети, особенно при многозадачном обучении, способны проявлять неклассические статистические характеристики, что обнаруживается через неравенство CHSH. Этот феномен, связанный с несовместимостью измерений, указывает на сложность внутренних представлений и динамики обучения. Как однажды заметил Марвин Минский: «Самое важное — это не то, что мы знаем, а то, что мы можем научиться». Именно способность к обучению и адаптации, проявляющаяся в способности сети демонстрировать неклассические корреляции, подтверждает, что время — это не просто метрика, а среда, в которой системы эволюционируют, исправляют ошибки и достигают зрелости. Неклассические корреляции, обнаруженные в градиентной конкуренции, — это шаги системы на пути к более сложному и эффективному представлению информации.
Куда Ведет Эта Дорога?
Представленные результаты, демонстрирующие проявление некорреляций, напоминающих квантовую несовместимость измерений, в классических нейронных сетях, неизбежно заставляют задуматься о скоротечности любого улучшения. Любая кажущаяся «прогрессивность» в архитектуре или методах обучения, как показывает опыт, подвержена эрозии быстрее, чем предполагалось. Изучение нарушения неравенства CHSH — это не открытие принципиально новой физики внутри искусственного интеллекта, а лишь более четкое осознание того, что любая система, стремящаяся к оптимальности, неизбежно сталкивается с границами своей внутренней согласованности.
Перспективы дальнейших исследований лежат, вероятно, не в поисках «квантового» алгоритма, а в более глубоком понимании механизмов конкуренции градиентов и формирования внутренних представлений. Вместо того, чтобы пытаться «удлинить» срок службы обнаруженных корреляций, следует сосредоточиться на изучении процессов их деградации. Отслеживание «отката» — путешествия назад по стрелке времени — может оказаться более плодотворным, чем стремление к непостижимому идеалу.
В конечном счете, ценность подобных исследований заключается не в создании «квантовых» нейронных сетей, а в получении новых инструментов для анализа и понимания природы обучения как такового. Иными словами, не в поиске новых способов достижения цели, а в осознании неизбежности ее изменения.
Оригинал статьи: https://arxiv.org/pdf/2603.04451.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Укрощение шума: как оптимизировать квантовые алгоритмы
- Квантовая химия: моделирование сложных молекул на пороге реальности
- Квантовые симуляторы: проверка на прочность
- Квантовые нейросети на службе нефтегазовых месторождений
- Искусственный интеллект заимствует мудрость у природы: новые горизонты эффективности
2026-03-07 10:28