学术研究报告:基于迭代经验继承策略的切换系统双变量迭代学习控制研究
一、作者及发表信息
本研究由Yiwen Qi(福州大学电气工程与自动化学院)、Caibin Yao(福州大学)、Choon Ki Ahn(韩国高丽大学电气工程学院)、Dong Shen(中国人民大学数学学院)及Ziyu Qu(沈阳航空航天大学自动化学院)合作完成,发表于控制领域顶级期刊Automatica(2025年,第179卷,论文编号112443)。
二、学术背景与研究目标
迭代学习控制(Iterative Learning Control, ILC)是一种针对重复系统的优化控制方法,广泛应用于机器人、电机和交通系统等领域。然而,传统ILC假设迭代长度固定,而实际系统中可能因安全等问题导致迭代长度动态变化(即“恶意终止”),现有补偿策略(如零填充、末时刻补偿等)存在收敛速度慢的问题。此外,传统ILC控制器增益固定,难以适应复杂动态。
本研究提出双变量迭代学习控制(Dual-Variable ILC, DV-ILC),结合迭代经验继承策略(Iteration Experience Succession Strategy, IESS)和强化学习优化,解决以下问题:
1. 可变迭代长度:通过IESS继承历史数据,填补恶意终止导致的缺失经验;
2. 动态控制器增益:利用深度Q网络(Deep Q-Network, DQN)实时优化增益,提升跟踪精度;
3. 切换系统(Switched Systems):适用于任意切换规则的多子系统场景。
三、研究流程与方法
1. 问题建模与控制器设计
- 系统模型:离散时间切换系统(公式1),包含多个子系统(σ(t) ∈ {1, 2, …, g}),状态方程包含动态切换矩阵Aσ(t)、Bσ(t)、Cσ(t)。
- 控制律:结合开环P型与闭环PD型ILC(公式4),利用当前和历史误差信息(el+1(t), el+1(t−1), el(t+1)),增益k1, k2, k3通过DQN动态优化。
迭代经验继承策略(IESS)
强化学习优化(DQN-ILC)
收敛性分析与最小迭代次数
四、主要结果与逻辑关联
1. 仿真验证
- 对象:升压转换器电路(Boost Converter,图3),建模为两模式切换系统(σ(t)=1,2)。
- 结果:
- IESS有效性:第7次(完整迭代)和第16次(恶意终止,t16=15)迭代均能快速跟踪目标轨迹(图5-6);
- DQN优化优势:与固定增益(P型)相比,DQN优化后的最大跟踪误差收敛更快(图7-8);
- 补偿方法对比:IESS的误差收敛速度显著优于零填充、末时刻补偿等方法(图9-10)。
五、研究价值与创新点
1. 科学价值
- 提出首个结合IESS与DQN的切换系统ILC框架,解决了可变迭代长度和动态增益优化的耦合问题;
- 理论证明收敛性并量化最小迭代次数,填补了传统ILC缺乏迭代资源指导的空白。
应用价值
创新亮点
六、其他重要内容
- 抗噪声性能:含差分项的ILC在随机噪声下仍保持稳定(图12);
- 增益动态变化:DQN输出的增益随迭代自适应调整(图13),验证了算法的灵活性。
总结:本研究通过IESS与DQN的协同设计,为切换系统提供了高效、自适应的迭代学习控制方案,兼具理论严谨性和工程实用性。