本研究由Tak Hur(英国帝国理工学院物理系)、Leeseok Kim(美国新墨西哥大学电气与计算机工程系)和Daniel K. Park(韩国成均馆大学先进纳米技术研究所)共同完成,于2022年2月10日在线发表于期刊 *Quantum Machine Intelligence*(DOI: 10.1007/s42484-021-00061-x)。
研究领域与动机
随着量子机器学习(Quantum Machine Learning, QML)的快速发展,研究者开始探索量子计算与经典机器学习架构的结合。卷积神经网络(Convolutional Neural Network, CNN)因其在图像分类等任务中的卓越表现成为经典机器学习的核心工具,但其计算需求随数据量增长而急剧上升。量子计算机在特定任务上展现的潜在优势(如指数级加速)促使研究者提出量子卷积神经网络(Quantum CNN, QCNN)的构想。然而,此前QCNN的研究主要集中于量子数据分类或需要容错量子设备的复杂算法,针对经典数据分类的完全参数化QCNN(Parametrized Quantum Circuit, PQC)模型尚未系统研究。
研究目标
本研究旨在填补这一空白,提出一种完全参数化的QCNN模型,专为经典数据的监督分类任务设计。其核心目标包括:
1. 开发一种仅需两比特交互的QCNN架构,适用于含噪声中等规模量子(Noisy Intermediate-Scale Quantum, NISQ)设备;
2. 系统评估不同参数化量子电路结构、数据编码方法、成本函数及优化器对分类性能的影响;
3. 在MNIST和Fashion MNIST数据集上验证QCNN的准确性,并与经典CNN模型对比。
架构核心
QCNN模型由三部分组成:
- 量子数据编码层:将经典数据映射为量子态,测试了四种编码方法:
- 幅度编码(Amplitude Encoding, AE):将数据归一化为量子态的振幅,需O(poly(n))电路深度;
- 比特编码(Qubit Encoding):每个经典数据点编码为单比特态,电路深度恒定;
- 密集比特编码(Dense Qubit Encoding):每比特编码两个经典数据点;
- 混合编码(Hybrid Encoding):结合幅度编码与分块策略,平衡电路宽度与深度。
卷积层与池化层:采用分层结构,每层通过参数化量子门(Ansatz)实现卷积滤波和池化操作。研究测试了9种卷积电路模板(图2),例如基于SO(4)门的电路(Circuit 6)和通用SU(4)门电路(Circuit 9)。池化层通过参数化两比特门后部分迹操作减少比特数。
测量与优化:最终单比特测量结果用于计算成本函数(交叉熵损失或均方误差),通过参数位移规则(Parameter-Shift Rule)优化参数。
数据集与预处理
- MNIST与Fashion MNIST:选择类别0和1的二进制分类任务,分别包含12,665(训练)和2,115(测试)样本。
- 经典降维方法:对比主成分分析(PCA)和自动编码器(Autoencoder),以适配量子设备的有限比特数。
训练细节
- 优化器:Nesterov动量法(学习率0.01,批量大小25,迭代200次);
- 参数规模:12至51个自由参数,模型复杂度显著低于经典CNN。
科学意义
1. 理论贡献:提出首个完全参数化的QCNN框架,适用于经典数据分类,且仅需两比特交互,显著降低NISQ实现门槛;
2. 性能优势:在小参数规模下,QCNN超越经典CNN,表明量子纠缠可能捕获全局关联性(经典CNN仅能建模局部相关性);
3. 编码创新:混合编码方案为量子资源受限场景提供灵活权衡。
应用前景
- NISQ兼容性:浅层电路和参数高效性使其适合当前量子硬件;
- 扩展方向:未来可探索多分类任务、优化数据编码层及在物理、医学等领域的应用。
(注:专业术语如“参数位移规则(Parameter-Shift Rule)”“NISQ设备”等在首次出现时标注英文,后续直接使用中文译名。)