《大规模黑盒全局优化中基于种群的元启发式算法综述——第二部分》是由Mohammad Nabi Omidvar(英国利兹大学)、Xiaodong Li(澳大利亚RMIT大学)和Xin Yao(中国南方科技大学)共同撰写的学术论文,发表于2022年10月的《IEEE Transactions on Evolutionary Computation》第26卷第5期。本文是该系列综述的第二部分,聚焦于大规模全局优化(Large-Scale Global Optimization, LSGO)领域的最新进展,特别关注采样与变异算子、近似与代理建模、初始化方法、并行化等关键技术,并探讨了多目标优化、约束处理、重叠组件等关联问题。
核心观点:差分进化(Differential Evolution, DE)和粒子群优化(Particle Swarm Optimization, PSO)是大规模优化中最常用的两种元启发式算法,但其在高维空间中易陷入早熟收敛。
- DE的改进:通过多样化的变异策略(如自适应策略DE/current-to-pbest)、参数动态调整(如基于高斯分布的缩放因子F和交叉率CR)以及多样性保持机制(如多种群协同演化)提升性能。例如,JADE算法通过引入外部存档保存劣质解,利用历史信息指导搜索方向。
- PSO的改进:通过重初始化策略(如动态粒子群规模调整)、空间分区(如基于聚类的邻域拓扑)和非线性更新规则(如竞争粒子群优化CSO)增强探索能力。例如,CSO通过粒子间的竞争机制替代全局最优引导,避免过早收敛。
- 证据支持:实验对比显示,改进后的DE和PSO在CEC’2013基准测试集上的收敛速度和准确性显著优于经典版本。
核心观点:通过降维或构建代理模型(如径向基函数、高斯过程)降低高维问题的计算成本。
- 分解结合代理模型:将问题拆解为低维子问题后分别建模。例如,差分分组(Differential Grouping)识别变量交互结构,再为不可分离组件构建多代理模型。
- 隐式降维:主成分分析(PCA)和随机投影理论用于发现问题的本征维度。
- 实验验证:在1000维的CEC’2010基准测试中,代理辅助的协同演化算法相比传统方法减少40%的函数评估次数。
核心观点:种群初始化的均匀性对高维优化至关重要,而并行化是实现计算效率的关键。
- 初始化方法:高级初始化技术(如拉丁超立方采样)在低维和小种群中效果显著,但在高维场景下受“维度灾难”限制,其优势减弱。
- 并行化框架:包括算法专用并行(如GPU加速的DE)和通用分解框架(如协同演化的MapReduce实现)。例如,MA-SW-Chains通过链式局部搜索并行化,可处理亿级变量问题。
这篇综述为研究者提供了大规模优化的“技术路线图”,其方法论梳理和开放问题探讨对后续学术研究与工业应用均具有指导意义。