本文是一篇发表于期刊 ki - künstliche intelligenz 上的技术贡献论文,题目为“Quantum Supervised Learning”,作者是 Antonio Macaluso,其所属机构为德国人工智能研究中心(German Research Center for Artificial Intelligence GmbH, DFKI)的智能体与模拟现实部门。该论文在线发表于2024年7月19日。
本文是一篇综述性论文,旨在从经典机器学习的视角,系统性地审视和梳理量子机器学习(Quantum Machine Learning, QML)领域,特别是其在监督学习(Supervised Learning)方面的研究现状、方法、挑战与未来方向。作者的核心目标是弥合传统机器学习原理与量子机器学习进展之间的鸿沟,为经典机器学习研究者提供一个理解QML的桥梁,并探讨量子计算在机器学习领域实现优势的潜在路径与障碍。
论文的主要观点阐述如下:
1. 量子机器学习的两大范式:容错QML与混合QML
论文开篇即明确了量子机器学习领域内并存的两大主要研究范式,其划分依据是底层量子计算设备的能力假设。 * 容错量子机器学习(Fault-Tolerant QML, FT-QML):此范式旨在利用未来完全纠错的大规模量子计算机,设计能够在理论上实现指数级加速的量子算法。其核心思想是将机器学习中的某些计算密集型子任务(如大规模线性代数运算)委托给量子计算机处理,以实现相对于经典算法的计算复杂度优势。典型的代表是HHL算法,该算法用于求解线性方程组,其时间复杂度在矩阵规模(n)上具有指数优势(O(log n))。FT-QML的应用场景主要针对参数化模型,例如通过HHL算法加速求解线性回归、最小二乘支持向量机(Least-Square Support Vector Machines, LS-SVM)以及量子样条(Quantum Splines, QSplines)中的参数估计问题。这种范式通常只需要单次或少数几次调用量子计算机来解决一个核心的优化问题(如求解线性系统),其学习能力本身与经典方法相当,优势纯粹体现在计算速度上。 * 混合量子-经典机器学习(Hybrid Quantum-Classical Machine Learning):此范式面向当前的嘈杂中型量子(Noisy Intermediate-Scale Quantum, NISQ) 设备。由于NISQ设备量子比特数量有限且存在噪声,无法运行像HHL这样需要深度电路和纠错的长算法。因此,该范式采用混合计算架构:使用参数化量子电路(Parametrized Quantum Circuits, PQC)作为可调模型(类似于神经网络中的层),由经典计算机负责优化这些量子电路的参数。整个过程是一个闭环迭代:经典计算机准备数据、编码为量子态、在量子设备上运行PQC、测量结果、计算损失函数、然后通过经典优化器(如梯度下降)更新PQC的参数,并重复此循环。这种范式下的模型,如量子神经网络(Quantum Neural Networks, QNNs)和量子核方法(Quantum Kernel Methods),其目标不仅是加速计算,更在于探索PQC所定义的新型假设函数族是否能够具备超越经典模型的表示或学习能力。与FT-QML单次调用量子计算机不同,混合QML在训练过程中需要频繁调用量子设备。
2. 监督学习的方法论视角:参数化与非参数化
为了建立经典与量子机器学习之间的清晰联系,论文首先回顾了经典监督学习的两种核心方法论。 * 参数化方法:这类方法(如线性回归)预先假设目标函数f具有特定的参数化形式(例如线性关系)。学习过程简化为根据训练数据估计一组有限的参数。其优点是优化问题通常是凸的,有解析解或高效算法,但缺点在于模型形式固定,若假设错误可能导致估计偏差。 * 非参数化方法:这类方法(如支持向量机、神经网络)不对f的函数形式做强假设,而是依靠数据本身和模型的灵活性来逼近任意复杂的函数。它们通常能拟合更广泛的模式,但需要更多的数据,且优化可能非凸、计算成本更高。支持向量机通过核技巧(Kernel Trick)隐式地将数据映射到高维特征空间进行线性分离;而神经网络则通过多层非线性变换直接学习复杂的表示。
论文指出,这种经典方法论上的分野直接对应到QML的两种范式:FT-QML主要服务于参数化方法,通过量子算法加速其内部的线性代数运算;而混合QML则更贴近非参数化方法,利用PQC的灵活性来构建新的模型假设空间。
3. 当前量子机器学习的研究焦点与核心挑战
论文深入探讨了当前QML研究中的几个关键议题和面临的严峻挑战。 * 量子模型的归纳偏置(Inductive Bias):归纳偏置指导模型从有限数据中进行泛化的隐含假设。对于QML模型,其偏置主要来源于三个方面:数据编码方式(决定了核函数)、量子电路架构(门的选择和排列)以及测量策略。理解并设计具有有利归纳偏置的量子模型,被认为是实现量子优势(Quantum Advantage)的可能途径,尤其是在处理量子过程产生的数据时。 * 经典代理模型(Classical Surrogates / Shadow Models):鉴于量子硬件访问不便,一个思路是:在量子计算机上训练好一个QML模型后,尝试构建一个能模仿其行为的经典模型(代理模型)。这样,推理阶段就无需量子硬件。然而,这引发了一个根本性问题:如果量子模型的行为总能被一个经典模型有效模仿,那么量子优势体现在何处? 论文指出,近期研究表明,基于某些密码学假设,存在一些学习任务,量子模型与经典阴影(Classical Shadow)技术结合可以解决,而纯经典模型则不能。这为量子优势的存在提供了理论可能性。 * 量子模型的可训练性问题:这是混合QML面临的最直接实践挑战。 * 贫瘠高原(Barren Plateau)问题:当PQC的深度和宽度增加时,损失函数关于参数的梯度会在绝大部分参数空间内指数级地趋近于零。这使得基于梯度的优化变得极其困难,类似于经典深度学习中的梯度消失问题,但根源在于量子电路的随机性和希尔伯特空间的特性。 * 缺乏高效的量子反向传播:经典神经网络训练的核心是高效的反向传播算法,其计算成本与正向传播相当。而在量子电路中,使用参数移位规则(Parameter Shift Rule)计算一个参数的梯度就需要运行两次电路。对于有m个参数的电路,一次完整的梯度评估需要O(2m)次电路运行,这在大规模参数下是难以承受的。论文指出,这种计算开销的差异意味着,直接比较量子模型和经典模型的参数数量或表达能力的理论指标是不公平的,因为两者的训练成本不在一个量级。
4. 有前景的研究方向与建议
基于对现状的分析,论文提出了两条可能推动QML领域向前发展的研究轨迹,鼓励研究者与经典机器学习社区进行更有建设性的对话。 * 从经典经验中学习:论文建议QML研究者不应只关注核方法,而应深入探索PQC所定义的基本假设函数类。一个关键问题是:是否存在一个“量子通用近似器”,能够近似任何经典函数? 寻找量子版本的“感知机”作为基础构建模块,可能是一条有价值的路径。此外,在优化方面,与其回避贫瘠高原问题,不如承认其普遍性并积极寻找缓解策略,正如经典深度学习通过改进激活函数、初始化方法和架构设计来应对梯度消失问题一样。评价量子模型时,应在考虑其实际训练成本(如梯度评估次数)的背景下,与经典模型进行公平比较。 * 基于经典方法的短板进行构建:现代神经网络有两大弱点:对海量标注数据的依赖和巨大的训练计算开销。因此,QML可以瞄准一个关键问题:在标注数据稀缺的场景下,量子模型能否表现更好? 初步研究表明,量子模型可能在某些任务上用少得多的训练样本达到与经典模型相当的泛化能力。另一个方向是限制训练迭代次数,训练一个参数较少的量子模型,然后从中提取经典代理模型。这些方向都需要坚实的实验证据支持。论文还批评了当前QML研究过于偏向物理问题的现状,鼓励在更大规模(如数十个量子比特)的模拟或真实设备上进行更贴近经典机器学习任务的实验,以展示潜在优势。
论文的意义与价值
本论文的综述具有重要的学术价值和指导意义: 1. 系统性梳理与桥梁作用:它成功地将量子机器学习领域纷繁复杂的研究(如HHL算法、量子核、QNN、QSplines等)置于一个统一的框架下进行解读,即通过经典监督学习的“参数化-非参数化”二分法和量子计算的“容错-NISQ”二分法来构建认知地图。这极大地帮助了不熟悉量子信息的经典机器学习研究者理解QML的脉络、目标和挑战。 2. 深刻的批判性分析:论文没有盲目宣扬量子优势,而是冷静、客观地指出了当前QML研究面临的重大理论和技术障碍,特别是可训练性(贫瘠高原、梯度计算效率)和优势证明(与经典代理模型的关系)问题。这种批判性视角对于领域的健康发展至关重要。 3. 前瞻性与建设性的研究方向建议:论文提出的两条研究轨迹——“从经典经验中学习”和“基于经典方法的短板进行构建”——为后续研究者提供了清晰、务实且富有启发性的路线图。它鼓励QML社区更多地与经典机器学习社区互动,关注真实的学习问题(如小样本学习),并开展更严谨、更具可比性的实验。 4. 平衡的观点:论文的结论是审慎而积极的。它承认在容错量子计算机出现之前,量子模型未必能明确超越经典模型。但同时,它也类比了经典神经网络的发展史——方法论的进步常常驱动硬件的发展,并乐观地预见QML的成熟不仅将受益于量子硬件的进步,也可能反过来指引硬件发展的方向。
这篇论文是一篇高质量的领域综述,它不仅总结了技术现状,更进行了深刻的元分析,指出了关键矛盾并提出了未来发展的战略思路,对于任何希望进入或了解量子机器学习领域的研究者而言,都是一份极佳的导读和思考指南。