量子人工智能:一项前沿交叉领域的概览与展望
本文是一篇由Matthias Klusch(德国人工智能研究中心)、Jörg Lässig(齐陶/格尔利茨应用技术大学)、Daniel Müssig(弗劳恩霍夫光学、系统技术与图像分析研究所)、Antonio Macaluso(德国人工智能研究中心)和Frank K. Wilhelm(于利希研究中心)共同撰写,于2024年11月在线发表在期刊 ki - künstliche intelligenz 上的技术性综述论文。文章题为“Quantum Artificial Intelligence: A Brief Survey”,旨在为这一新兴交叉领域提供一个简明但全面的概览,总结迄今为止的主要研究成果,并指出未来研究的开放性问题。本文将围绕量子人工智能的两个主要研究方向展开:利用量子计算解决人工智能领域中的计算难题,以及利用人工智能方法来构建和优化量子计算设备本身。
量子人工智能的定义与范畴
量子人工智能是量子计算与人工智能两大颠覆性技术的交叉点。它不仅指利用量子计算的潜力来加速或改进传统人工智能方法(如机器学习、规划、视觉、自然语言处理等),也涵盖利用人工智能技术来推进量子计算设备的设计、校准、编译和操作。文章特别强调,尽管量子机器学习是目前最受关注的子领域,但量子人工智能的范畴远不止于此,它涵盖了自动规划与调度、自然语言处理、计算机视觉、智能体与多智能体系统等AI的几乎所有主要子领域。当前,量子AI研究仍处于起步阶段,但已在多个应用领域(如制造、自动驾驶、交通物流、能源管理、金融、航空航天、制药等)展现了潜在的应用前景和市场价值。然而,要实现在实际应用中的大规模商业化,仍需依赖未来拥有更多量子计算资源和容错能力的量子设备。
量子计算基础概览
为了便于理解后续内容,文章简要回顾了量子计算的基础知识。首先介绍了两种主要的量子计算模型:门模型量子计算和绝热量子计算。门模型类似于经典计算机,通过量子门操作量子比特进行处理,是设计复杂量子电路的基础。绝热量子计算则依据绝热定理,通过让量子系统从简单的初始态缓慢演化到编码问题解的终态来解决问题。量子退火是绝热量子计算的一种更实用的形式,专注于寻找组合优化问题的近似解,通常将问题表述为二次无约束二元优化问题。
文章详细解释了量子比特的核心特性:叠加和纠缠。一个量子比特可以同时处于 |0⟩ 和 |1⟩ 态的叠加中,而n个量子比特的系统可以编码2^n个状态的叠加,这提供了指数级的潜在并行性。量子态通过酉算符进行演化,而信息的提取需要通过测量来完成,测量会以概率的方式使量子态坍缩到某个基态。当前,由于量子硬件仍处于含噪声的中等规模量子时代,完全容错的量子计算尚未实现。因此,变分量子算法等混合量子-经典计算方法成为了近期的研究重点。这类算法使用参数化量子电路,通过经典优化器迭代调整量子电路参数,以求解优化问题或执行机器学习任务。
量子计算助力人工智能
论文主体部分首先梳理了量子计算在人工智能各子领域的应用研究。
量子机器学习:目标是利用量子计算原理来执行传统机器学习任务。尽管理论研究表明,容错量子计算有望在训练某些ML算法时提供计算加速,但当前硬件限制了其实用性。因此,研究重点转向了混合量子-经典方法,特别是基于变分量子算法的量子神经网络。这些QNN被用于监督学习和强化学习。例如,近期一项研究开发了一种用于自动驾驶安全导航的量子深度强化学习方法,实验表明,该方法在训练速度和稳定性上优于其经典对应物,且仅需数十个含噪声的量子比特,显示了近期的量子效用潜力。在无监督学习方面,研究主要集中在理论上能提供计算加速的容错量子算法,例如用于聚类和图形稀疏化的量子算法。
量子规划与调度:旨在为自动规划和调度这一计算密集型AI任务开发量子支持的方法。例如,有研究将机器人最优路径规划问题与Grover量子搜索算法结合,理论上可获得量子加速。在调度方面,研究集中于解决柔性作业车间调度这一NP难问题。已有方法尝试将混合整数线性规划问题分解,利用经典求解器处理分配问题,同时用量子退火器解决对应的排序QUBO问题,实验显示了对经典求解器的计算时间加速。然而,对于部分可观测马尔可夫决策过程等更复杂的规划问题,量子方法的可行性和优势仍有待深入探索。
量子计算机视觉:研究利用量子技术支持智能体的视觉感知任务。这涉及将数字图像表示为量子态并进行处理。已有量子退火方法被用于图像分割、运动分割、图像分类等任务。例如,有研究将图像分割问题建模为图割优化QUBO问题,在D-Wave量子退火器上求解,在运行时间上超越了经典求解器。此外,也有研究探索了混合量子经典视觉Transformer模型和量子扩散模型,在特定任务(如小规模医学图像分类、图像合成)中显示出与经典模型相当或更好的性能,且训练参数更少。
量子自然语言处理:探索用量子计算手段表示和处理自然语言。当前多数QNLP工作利用量子叠加来建模语言的不确定性和歧义,利用纠缠来描述语法和语义的组成与分布。一个重要的理论基础是范畴分布组合图模型,它允许将单词和短语的含义编码为量子态和过程(即量子电路)。与经典基于神经Transformer的大语言模型相比,这种方法更明确地揭示了语言结构中的意义流。虽然理论上讨论了在量子硬件上运行此类模型可能带来加速,但受限于当前NISQ硬件,高级混合QNLP方法的开发和实验验证仍需更多努力。
量子智能体与多智能体系统:该领域研究主要在两个方向:1)为混合量子经典计算环境开发自主智能体与多智能体系统架构;2)为多智能体系统中的协调与合作开发量子支持方法。关于前者,目前尚缺乏成熟的编程框架和工具。关于后者,已有初步研究探索量子支持的联盟形成、合同网协议、拍卖以及多智能体强化学习。例如,有研究提出了量子联盟结构生成方法,将问题转化为QUBO,在量子退火器上求解,并在能源管理(优化产消者联盟以最小化电网管理成本)和航空航天(动态聚类低地球轨道卫星网络)等实际用例中展现了量子效用,其性能在某些基准测试中超越了经典的近似求解器。
人工智能赋能量子计算
论文的第二大部分转向了另一个方向,即利用人工智能(主要是机器学习)来支持量子计算设备的整个生命周期。
量子算法与实验设计:利用机器学习辅助设计新的量子实验和协议。例如,名为MELVIN的框架使用ML方法自动发现用于创建和操纵复杂量子态的新颖光学实验配置。强化学习方法已被用于自主设计复杂的光子量子实验,甚至重新发现了量子隐形传态、纠缠纯化等知名协议。此外,可解释AI技术(如基于Shapley值的QShap方法)被引入量子机器学习,用于解释参数化量子电路中量子门的重要性,有助于理解和优化电路结构。
近优PQC参数搜索:旨在减少混合算法中优化参数化量子电路所需的量子电路评估次数。机器学习被用于“热启动”过程,即利用经典ML模型预测良好的初始参数。研究表明,高斯过程回归、图神经网络等方法能有效减少优化迭代次数,提供比随机初始化更稳定可靠的起点,并能跨不同问题规模进行泛化。
量子电路转译:这是将高级量子电路转换为能在特定硬件上执行的低级指令的关键步骤。ML被广泛应用于该流程的各个阶段,包括量子比特布局、路由、门优化等。进化算法、深度神经网络和强化学习都被用于寻找最优的转译方案。例如,有研究使用深度强化学习代理来优化针对特定硬件的量子电路,有效减少了电路深度和门数量。近期,RL方法已能直接合成符合原生设备指令和约束的量子电路,消除了额外转译步骤的需要。
量子纠错与缓解:在通往容错量子计算的路上,量子纠错和错误缓解至关重要。ML被用于改进错误缓解,例如训练随机森林等模型直接从有噪声的量子输出预测近乎无噪声的值,从而减少传统错误缓解方法所需的大量额外电路开销。在量子纠错方面,深度神经网络已被开发用于解码,能够处理综合征数据并纠正错误,在某些方面表现优于传统的匹配方法。
量子计算设备校准:量子最优控制理论与现代AI技术结合,用于校准和优化量子硬件。机器学习方法,特别是贝叶斯参数估计的神经网络实现,被用于高效、模型无关地校准量子系统参数。也有研究使用多目标回归和可解释AI技术来预测超导量子器件的能谱,显著提高了校准精度。这些方法通过创建数字孪生和利用实验数据改进模型,为量子设备的精确控制提供了捷径。
结论与展望
文章总结道,量子人工智能作为一个新兴的跨学科领域,在两个研究方向上均已取得显著进展。一方面,针对AI中的诸多计算难题,已经涌现出一批在不同程度上显示出潜在量子效用的解决方案,并在多个实际应用领域展现出价值。另一方面,人工智能技术,特别是机器学习,已被证明能有效优化量子计算设备的设计、控制和性能。
展望未来,作者认为研究应更加聚焦于探究在何种具体条件和实际工业用例下,直接或混合量子经典解决方案是可行的,并能带来切实的量子效用。同时,需要前瞻性地研究如何将现有的QAI方法过渡并适应于未来更强大的非NISQ量子设备。这需要物理学和计算机科学界更紧密的合作,以及来自政府和产业界持续而有力的支持。最终,量子人工智能有望从当前的学术前沿,成长为具有深远经济和技术影响力的关键领域。