分享自:

基于神经组合优化与深度强化学习的在线车辆路径规划

期刊:IEEE Transactions on Intelligent Transportation SystemsDOI:10.1109/tits.2019.2909109

基于神经组合优化与深度强化学习的在线车辆路径规划研究学术报告

本研究由 Southern University of Science and Technology 的 James J. Q. Yu、National Polytechnic Institute (CINVESTAV-IPN) 的 Wen Yu 以及 The University of Hong Kong 的 Jiatao Gu 共同完成。研究成果以论文《Online Vehicle Routing with Neural Combinatorial Optimization and Deep Reinforcement Learning》的形式,发表于 IEEE Transactions on Intelligent Transportation Systems 期刊(收录于2019年,具体发表日期为文章正式接收后)。

学术背景

本研究隶属于智能交通系统与运筹优化交叉领域,具体聚焦于城市物流系统中的在线车辆路径问题。研究背景源于现代城市,尤其是电子商务驱动下,对小包裹“最后一公里”配送需求的急剧增长。传统的车辆路径规划方法,如基于混合整数规划的数学优化方法,在面对城市规模的大规模网络和实时动态需求时,因其NP-hard的计算复杂度,通常需要耗费大量计算时间,难以满足在线、实时响应的应用需求。尽管已有研究尝试引入启发式或元启发式算法,甚至利用机器学习进行能耗或时间预测,但在计算效率与大规模问题求解质量之间的平衡上,仍存在显著挑战。

因此,本研究旨在设计一种能够以最小计算时间生成高质量在线车辆路径的新策略。核心目标是:将传统的在线车辆路径问题转化为一个可以通过深度学习模型高效求解的“神经组合优化”问题,从而将计算负担从耗时的在线优化求解阶段,转移到可以离线进行的模型训练阶段,最终实现近乎实时的在线路径生成。具体而言,研究以自主车辆物流系统(Autonomous Vehicle Logistic System, AVLS)这一绿色物流系统为例,构建了一个基于深度强化学习的神经组合优化框架。

详细研究流程

本研究的工作流程主要包括四个核心环节:系统建模与问题转化分布式神经优化策略设计深度强化学习训练机制以及策略评估与参数分析

第一环节:系统建模与问题转化。 研究首先建立了绿色物流系统的数学模型,包含了五个基本组成部分:交通网络(建模为有向图G(V,E))、自主车辆(含电池容量、载货量、位置等属性)、物流请求(含取货/送货点、容量要求、交付期限)、可再生能源发电站和固定充电站(补给点)。在线路由问题的目标被形式化为一个优化问题:在满足路线连通性、请求交付期限、车辆容量、电池电量(不能耗尽或过充)以及可再生能源充电限制等一系列约束条件下,最大化配送请求数量并最小化总行驶距离。研究者明确指出,这一问题的传统数学规划(Mixed Integer Program, MIP)求解是NP-hard的,不适用于大规模动态系统的在线响应,从而引出了引入神经优化方法的必要性。

第二环节:分布式神经优化策略设计。 这是本研究的核心创新之一。策略采用分布式架构,每个车辆基于中央信息中心分发的当前系统状态(包括可用请求、其他车辆下一步动向、充电需求等)独立决策。具体步骤如下: 1. 行程图创建:为避免直接将整个大规模交通网络输入神经网络(会导致性能下降),研究为每个车辆构建一个精简的“行程图”。该图节点仅包含车辆当前关心的潜在“停靠点”,包括:车上待送货物的目的地、待取货物的取货点和目的地、所有充电设施、以及车辆的最终目的地。然后,使用最短路径算法(如A*)计算这些节点之间的最优路径,并将路径的距离、能耗和估计旅行时间作为图的边权重。这一步骤将大规模网络路由问题转化为一个在小型图上选择停靠点序列的旅行商问题变体。 2. 深度神经网络架构:研究设计了一个结合结构图嵌入(struct2vec)指针网络(Pointer Network, Ptr-Net) 的深度神经网络,用于迭代地生成停靠点序列(即“行程”)。 * 编码器:首先,使用struct2vec对行程图中的每个节点进行特征嵌入。这一过程迭代地聚合每个节点及其邻居的特征(包括节点特定属性,如请求交付期限、车辆当前电量,以及边权重信息如距离、能耗等),生成包含图结构信息的节点嵌入向量。随后,一个长短期记忆(Long Short-Term Memory, LSTM)网络按顺序处理这些嵌入,编码整个图的状态信息。 * 解码器:另一个LSTM网络作为解码器,起始于一个可训练的参数向量。在每个解码步骤,解码器结合编码器的输出、自身的当前状态以及已生成的部分行程,通过一个注意力(Attention)机制计算所有剩余可选停靠点的概率分布。下一个停靠点即依据此概率分布随机选择。最终,整个行程的生成概率由链式法则得出。该网络是拓扑无关的,意味着其训练可以基于较小规模的图进行,而后应用于具有相似图特征的大规模问题。

第三环节:深度强化学习训练机制。 由于为大规模车辆路径问题生成监督学习所需的“最优解-输入”配对训练数据极其耗时且不切实际,本研究采用了无监督的深度强化学习(Deep Reinforcement Learning, DRL) 范式来训练Ptr-Net的参数。 1. 奖励函数设计:研究者设计了一个精巧的奖励函数,它替代了传统监督学习中的损失函数。该函数直接编码了原优化问题的目标和约束:正奖励来自成功交付的请求,负奖励(惩罚)来自总行驶距离,并对违反交付期限、超载、电池耗尽/过充、未完成送货即到达终点、超额使用可再生能源等约束条件施加不同程度的惩罚(通过一系列系数c1-c7控制)。这个函数易于计算,且无需已知最优解。 2. 策略梯度优化:采用策略梯度方法(REINFORCE算法)优化神经网络的参数。为了降低训练方差、加速收敛,研究引入了一个辅助的评论家网络(Critic Network, Crit-Net)。Crit-Net结构与Ptr-Net的编码器部分相似,其作用是估计给定系统状态下的期望奖励值(作为基线)。训练过程采用异步优势演员-评论家方法,交替更新Ptr-Net(演员)和Crit-Net(评论家)的参数。具体算法(Algorithm 1)为:从一个小规模交通网络(如科隆市中心区域)的分布中随机采样生成大量训练用例(系统状态和对应的行程图),用当前的Ptr-Net生成行程,用Crit-Net估计基线奖励,然后计算策略梯度并更新参数。此过程完全离线进行。 3. 多采样行程构建:在模型训练完成后,在线使用时,为了从Ptr-Net输出的概率分布中得到更优的确定性行程,研究者提出了“多采样”方案。即从softmax概率分布中采样生成多个候选行程(例如128、1280或12800个),然后用奖励函数评估这些候选行程,选择奖励最高的一个作为最终输出。同时,引入了softmax温度参数k来控制采样分布的“平滑度”,以平衡探索与利用。

第四环节:策略评估与参数分析。 研究在德国科隆的真实城市交通网络和动态交通数据上进行了全面的案例研究,以评估所提策略(标记为DRL-based)的性能。 1. 解决方案质量与计算时间对比:生成了100个静态测试用例(100辆车,200个请求),将提出的策略(包括贪婪搜索和不同采样次数的多采样变体)与传统的数学规划求解器(Gurobi, 分别给定1分钟、10分钟、60分钟计算时间限制,标记为MIP@…)以及一种元启发式算法(M-MOEA/D)进行对比。关键性能指标是总行驶距离相对于通过长时间计算得到的“最优/近似最优”解的比率。结果表明,即使只给1分钟计算时间,DRL-sample@1min策略的性能也显著优于MIP@1min和M-MOEA/D@1min,且DRL策略在线推断行程仅需数秒。随着采样次数增加(DRL-sample@13k),其解的质量甚至可以接近经过长时间计算得到的优质解。 2. 动态场景测试:模拟了动态物流环境(新请求按泊松过程到达,可再生能源输出随机波动),评估策略在服务请求数量、总行驶距离和新请求平均等待时间上的表现。结果表明,在相同的平均决策时间内,所提DRL策略比传统数学规划方法能服务更多请求,同时缩短等待时间和行驶距离。 3. 参数敏感性分析:研究了奖励函数中惩罚系数{c_i}和softmax温度参数k对系统性能的影响。通过重新训练模型并测试发现,研究中选定的一组{c_i}值能取得最佳性能,过大或过小都会导致训练效果下降。对于参数k,测试发现k=2时,不同采样配置的策略普遍表现最好,且采样次数越多的策略对k的变化越不敏感(鲁棒性更强)。

主要研究结果

  1. 模型训练结果:成功训练出了一个能够有效捕捉城市交通网络路由问题特征的Ptr-Net模型。训练基于小规模(科隆市中心)网络进行,耗时约22小时,证明了离线训练的可行性。
  2. 静态案例性能结果:在100个大规模静态测试案例上,所提DRL策略在所有计算时间预算下,其生成的路径总距离与“最优”解的比率均显著优于传统MIP和元启发式方法在相同时间内的结果。例如,DRL-sample@1min的解质量远优于MIP@1min。研究还发现,多采样策略相比贪婪搜索能大幅提升性能,且性能提升与采样数量呈亚线性关系(存在收益递减)。
  3. 动态案例性能结果:在动态环境中,所提策略展现了优越的在线适应能力。在限制决策时间的情况下,它能够比传统优化策略服务更多的动态到达请求,同时保持更低的车辆总行驶距离和更短的客户请求等待时间,验证了其在线应用的实用价值。
  4. 鲁棒性结果:通过模拟20%道路速度大幅下降的异常交通状况,测试发现所提策略仅需增加约1%的行驶距离即可应对,且能完成所有请求配送,表明其具有良好的泛化能力和鲁棒性。
  5. 参数影响结果:敏感性分析明确了奖励函数惩罚系数和采样温度参数的最优取值区间,为实际应用中的参数调优提供了指导。

这些结果逻辑连贯:首先,通过离线DRL训练成功获得了高效的神经优化模型(结果1)。接着,该模型在静态测试中证明了其超越传统方法的速度-精度优势(结果2),这为其应用于动态在线场景奠定了基础。随后,在动态测试中,该优势直接转化为了更高的服务效率和更快的响应速度(结果3)。鲁棒性测试(结果4)和参数分析(结果5)则进一步确保了策略的实用性和可调性。

研究结论与价值

本研究成功提出并验证了一种基于深度强化学习的神经组合优化策略,用于解决大规模在线车辆路径规划问题。主要结论是:该策略能够以极短的计算时间(在线推断)生成高质量的车辆路径,在静态和动态物流系统测试中均显著优于传统的数学规划和元启发式方法。其核心价值在于通过“离线训练、在线快速推断”的新范式,将NP-hard优化问题的计算复杂度从在线求解阶段转移出去,从而实现了以往难以达到的在线响应速度。

科学价值:本研究将神经组合优化和深度强化学习前沿技术系统地应用于经典的车辆路径问题,为运筹学与人工智能的交叉融合提供了一个成功范例。它证明了利用深度学习模型从数据中学习启发式策略,以解决复杂组合优化问题的可行性和优越性。所提出的Ptr-Net与struct2vec结合的网络架构、以及基于Crit-Net的DRL训练机制,具有方法论上的创新性。

应用价值:该策略为智能交通系统和现代物流行业,特别是面临爆炸性增长的“最后一公里”配送挑战的企业,提供了一个极具潜力的解决方案。它使得在城市场景下对大量车辆进行实时、动态的路径规划和调整成为可能,有助于提升物流效率、降低运营成本、改善客户体验。此外,该框架不局限于绿色物流系统,其设计原理可扩展至其他具有约束的组合优化问题。

研究亮点

  1. 方法创新:首创性地将结构图嵌入与指针网络结合用于车辆路径生成,并设计了基于奖励函数和评论家网络的深度强化学习训练框架,避免了为组合优化问题构建监督数据集的难题。
  2. 性能突破:在真实城市规模的测试中,实现了近乎实时的在线路径规划,且在解质量上超越了传统方法在同等甚至更长时间内的计算结果,在计算效率和解的质量之间取得了卓越的平衡。
  3. 实用性强:提出的“行程图”创建方法有效降低了问题输入规模;离线训练、在线快速推断的范式非常契合实际应用需求;对动态环境和异常状况展现了良好的鲁棒性。
  4. 可扩展性:研究强调其神经网络是拓扑无关的,且框架设计具有普适性,为将其应用于更广泛的车辆路径问题变体及其他组合优化问题奠定了基础。

其他有价值的内容

论文还详细讨论了未来工作的两个方向:一是探索更先进的深度学习与强化学习技术以进一步提升性能;二是将该策略扩展至其他大规模车辆路径相关或组合优化问题。这指明了该领域后续的研究路径。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com