Автор: Денис Аветисян
Новый алгоритм позволяет оптимизировать последовательности квантовых операций, значительно улучшая качество подготовки квантовых состояний.

В статье представлен метод обучения с подкреплением для оптимизации последовательностей квантовых операций в параметризованных квантовых схемах, направленный на повышение точности и снижение влияния шума на NISQ-устройствах.
helpСовременные квантовые устройства ограничены шумом, возникающим преимущественно из-за операций с запутанностью. В работе ‘Gate Sequence Optimization for Parameterized Quantum Circuits using Reinforcement Learning’ представлен алгоритм обучения с подкреплением, оптимизирующий последовательность квантовых гейтов для задачи подготовки квантового состояния. Предложенный подход позволяет снизить необходимое количество CNOT-гейтов при учете архитектуры связности кубитов и достигать более высокой точности подготовки состояния по сравнению с традиционными подходами на основе слоистых параметризованных схем. Каковы перспективы применения данного метода для дальнейшего повышения надежности и масштабируемости квантовых вычислений на устройствах NISQ?
Квантовый рассвет: возможности и ограничения
Квантовые вычисления обещают экспоненциальное ускорение для определенных задач, потенциально революционизируя материаловедение и разработку лекарств. Этот прогресс обусловлен принципиально иной парадигмой обработки информации, использующей квантовые биты (кубиты) для вычислений, недоступных классическим компьютерам. Моделирование сложных молекул и материалов с беспрецедентной точностью открывает новые горизонты для научных исследований.
Современные NISQ-системы сталкиваются с ограничениями, связанными с шумом и количеством кубитов. Для их преодоления разрабатываются стратегии смягчения ошибок, направленные на повышение надежности квантовых вычислений. Развитие методов коррекции ошибок и создание стабильных кубитов — ключевые задачи.

Достижение квантового превосходства – демонстрация преимущества квантовых компьютеров над классическими – остается значительной проблемой, требующей разработки надежных алгоритмов и аппаратного обеспечения. Для подтверждения необходимо решить задачу, не поддающуюся решению на классических компьютерах, и доказать ускорение квантового алгоритма. Это требует сотрудничества между теоретиками и инженерами.
Ясность в понимании ограничений и возможностей квантовых вычислений – это минимальная форма любви к науке.
Гибридный подход: вариационные квантовые алгоритмы
Вариационные квантовые алгоритмы (ВКА) — гибридный подход, сочетающий квантовые вычисления с классической оптимизацией. Это позволяет выполнять вычисления на квантовых устройствах ближайшего будущего, преодолевая ограничения, связанные с количеством кубитов и когерентностью.
В основе ВКА лежат параметризованные квантовые схемы (ПКС). Параметры этих схем оптимизируются классически для минимизации целевой функции, определяющей решаемую задачу. Этот итеративный процесс, сочетающий квантовые измерения и классическую оптимизацию, является ключевой особенностью ВКА.

Одним из примеров ВКА является вариационный квантовый решатель (ВКР), используемый для приближенного вычисления основного состояния энергии сложных квантовых систем, находящий применение в квантовой химии и физике материалов.
Оптимизация схем: путь к эффективности
Оптимизация квантовых схем критически важна для уменьшения требований к ресурсам и смягчения влияния шума в NISQ-системах. Этот процесс включает методы упрощения схем при сохранении функциональности, с акцентом на сокращение числа запутывающих гейтов ($CNOT$). Эффективное уменьшение числа гейтов напрямую влияет на глубину схемы и вероятность ошибок.
Недавние исследования направлены на интеграцию оптимизации квантовых схем с методами обучения с подкреплением. В частности, применяется алгоритм Double Deep Q-Network (DQN) для автоматизированного проектирования схем. Результаты моделирования на пятикубитных системах демонстрируют достижение средней точности в 0.99.

Симуляции на зашумленных IBM-системах показали, что использование агентов, обученных с помощью обучения с подкреплением, позволяет достичь оптимальной производительности менее чем за 12 $CNOT$-гейтов. На системе $ibm\_manila$ наблюдается сопоставимая производительность RL-агента и сложной схемы, однако предложенный подход допускает произвольное количество $CNOT$-гейтов. На более подверженной шуму системе $ibm\_quito$ наблюдается существенная разница между агентом и сложной схемой из-за эффектов транспайлинга.
Характеристика и валидация: точность квантовых вычислений
Ключевым методом реконструкции квантового состояния системы является ‘Квантовая томография состояния’, позволяющая детально изучить свойства квантовой системы. Точность реконструкции критически важна для корректной работы квантовых алгоритмов и симуляций.
Оценка качества реконструкции основывается на метрике ‘Верность’, количественно определяющей степень сходства между реконструированным и целевым состоянием. Высокая верность указывает на адекватное описание исходной квантовой системы. Разработан агент, использующий обучение с подкреплением, для оптимизации процесса квантовой томографии.
![Анализ CNOT-связности для ibm_manila и ibm_quito показал, что числовые значения представляют кубиты, а связи — CNOT-связи в оборудовании, причем цветовая кодировка отражает ошибки гейтов (связи) и декогеренцию (кубиты), что подтверждается данными IBM Quantum[JavadiAbhari2024].](https://arxiv.org/html/2511.08096v1/Figures/Archs.png)
Эксперименты на квантовом бэкенде IBM Quito продемонстрировали, что разработанный агент достигает верности, превышающей 0.9, превосходя показатели традиционных слоистых схем. Для GHZ/W-состояний, содержащих 2 миллиона состояний, максимальная достигнутая верность составила 0.678.
Иногда, чтобы увидеть истинную форму, необходимо отбросить избыточные детали, оставив лишь самое необходимое.
Случайность как ключ к эффективности
Исследование возможностей применения ‘Haar Random States’ позволяет повысить эффективность определенных квантовых алгоритмов за счет введения контролируемой случайности, обеспечивая более гибкое управление квантовыми состояниями.
Интеграция этой случайности в рамки алгоритмов обучения с подкреплением, таких как ‘Double Deep Q-Network’, потенциально способна привести к созданию более устойчивых и эффективных алгоритмов, позволяющих алгоритму более эффективно исследовать пространство решений и избегать локальных оптимумов.
Алгоритм подтверждает оптимальное число вентилей CNOT, равное $2^{n-1}-1$, для W-состояний до десяти кубитов, открывая путь к решению все более сложных проблем и реализации полного потенциала квантовых вычислений.
Представленная работа демонстрирует стремление к упрощению сложного процесса подготовки квантового состояния. Алгоритм, основанный на обучении с подкреплением, позволяет оптимизировать последовательности квантовых вентилей, добиваясь большей точности и снижая влияние шумов, характерных для NISQ-устройств. Этот подход особенно важен, поскольку традиционные послойные методы часто приводят к избыточности и неоптимальности. Как говорил Вернер Гейзенберг: «Самое простое решение — обычно самое правильное». Подобная философия находит отражение в данной статье, где акцент делается на поиске лаконичных и эффективных схем для достижения желаемого квантового состояния, что соответствует принципам ясности и милосердия в научном исследовании.
Что Дальше?
Представленная работа, как и любое приближение к решению сложной задачи, скорее обнажает бездну нерешённых вопросов, чем заполняет её. Оптимизация последовательностей управляющих импульсов для квантовых схем – это, конечно, шаг. Но где предел? Заманчиво полагать, что алгоритмы обучения с подкреплением, адаптированные к специфике квантового шума, станут краеугольным камнем будущих схем. Однако, существующая зависимость от конкретной архитектуры квантового процессора – это, мягко говоря, ограничение. Истина, вероятно, заключается в создании мета-алгоритмов, способных абстрагироваться от физической реализации.
Упор на повышение точности подготовки квантовых состояний, безусловно, важен. Но не менее важно – и, возможно, сложнее – разработка метрик, отражающих истинную полезность оптимизированных схем. Фактически, необходимо выйти за рамки простого измерения «верности» и перейти к оценке влияния оптимизации на конкретные квантовые алгоритмы и их способность решать практически значимые задачи. Иначе это лишь игра с числами.
Ясность – это минимальная форма любви. И в контексте квантовых вычислений, эта ясность заключается в признании того, что самая сложная проблема – не в создании более совершенных алгоритмов, а в понимании того, что мы действительно пытаемся вычислить. Упрощение, а не усложнение, должно быть компасом в этом исследовании.
Оригинал статьи: https://arxiv.org/pdf/2511.08096.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Виртуальная примерка без границ: EVTAR учится у образов
- Искусственный интеллект и рефакторинг кода: что пока умеют AI-агенты?
- Почему ваш Steam — патологический лжец, и как мы научили компьютер читать между строк
- LLM: математика — предел возможностей.
- Квантовый прыжок: сможем ли мы наконец разгадать тайну сворачивания белков?
- Эмоциональный отпечаток: Как мы научили ИИ читать душу (и почему рейтинги вам врут)
- Восполняя пробелы в знаниях: Как языковые модели учатся делать выводы
- Память как основа разума: новый подход к генерации ответов
- Квантовый скачок из Андхра-Прадеш: что это значит?
- Разделяй и властвуй: Новый подход к классификации текстов
2025-11-12 17:18