分享自:

具有迭代经验继承策略的切换系统双变量迭代学习控制

期刊:automaticaDOI:10.1016/j.automatica.2025.112443

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


双变量迭代学习控制在切换系统中的研究与应用

1. 研究作者、机构及发表信息

本研究的作者包括:
- Yiwen Qi(第一作者,福州大学电气工程与自动化学院)
- Caibin Yao(福州大学电气工程与自动化学院)
- Choon Ki Ahn(通讯作者,韩国高丽大学电气工程学院)
- Dong Shen(中国人民大学数学学院)
- Ziyu Qu(沈阳航空航天大学自动化学院)

该研究发表于Automatica(2025年,第179卷,文章编号112443),由Elsevier出版。

2. 学术背景

研究领域:控制理论与工程,具体涉及迭代学习控制(Iterative Learning Control, ILC)切换系统(Switched Systems)中的应用。

研究动机
- 传统ILC研究通常假设每次迭代的运行长度固定,但实际系统中可能因安全问题导致迭代被恶意终止,使得运行长度可变(Variable Iteration Run Length),影响控制性能。
- 现有补偿方法(如零补偿、末时刻补偿、迭代平均算子补偿)在数据缺失时收敛速度较慢。
- 切换系统(由多个子系统组成,通过切换信号动态调整)在航空航天、电路、微电网等领域广泛应用,但其ILC研究仍面临挑战。

研究目标
1. 提出一种迭代经验继承策略(Iteration Experience Succession Strategy, IESS),以应对可变运行长度问题。
2. 设计一种结合开环P型闭环PD型双变量ILC(Dual-Variable ILC, DV-ILC)控制器,并利用强化学习(Reinforcement Learning, RL)优化控制器增益。
3. 证明系统在迭代域内的跟踪误差收敛性,并计算满足预期性能的最小迭代次数

3. 研究流程与方法

(1) 系统建模与问题描述
  • 研究对象:离散时间切换系统,动态方程如下:
    [ xl(t+1) = A{\sigma(t)}xl(t) + B{\sigma(t)}u_l(t), \quad yl(t) = C{\sigma(t)}x_l(t) ]
    其中,( \sigma(t) ) 为任意切换信号,( t \in [0, t_l] ),( t_l ) 为第( l )次迭代的运行长度(可变)。
(2) 迭代经验继承策略(IESS)
  • 核心思想:若某次迭代因恶意终止导致数据缺失,则用前次迭代的对应数据填充。例如,若第( l )次迭代在( tl < t{\text{max}} )时终止,则( t \in (tl, t{\text{max}}] )的数据由第( l-1 )次迭代的( t \in [t_{l-1}-tl, t{l-1}] )数据补充。
  • 算法实现:通过判断运行长度是否完整,动态调用历史数据(见原文Algorithm 1)。
(3) 控制器设计
  • 控制律形式
    [ u_{l+1}(t) = u_l(t) + \tilde{k}1 e{l+1}(t) + \tilde{k}2 (e{l+1}(t) - e_{l+1}(t-1)) + \tilde{k}_3 e_l(t+1) ]
    其中,( \tilde{k}_1, \tilde{k}_2, \tilde{k}_3 ) 为通过强化学习优化的时变增益。
  • 创新点
    • 结合开环P型(利用历史误差( el(t+1) ))和闭环PD型(利用当前误差( e{l+1}(t) )及其差分)。
    • 采用深度Q网络(Deep Q-Network, DQN)动态调整增益(见原文Algorithm 2)。
(4) 收敛性分析与最小迭代次数计算
  • 定理1:证明跟踪误差在λ范数下收敛,条件为:
    [ 0 < \frac{\mu_1 + \lambda’ \mu_4}{1 - \lambda’ (\mu_2 + \lambda \mu_3)} < 1 ]
  • 定理2:给出满足预期性能的最小迭代次数:
    [ L = \log_\mu e^{-\phi} + 2 ]
    其中,( \mu )为收敛速率,( \phi )为性能参数。
(5) 仿真验证
  • 实验系统:升压转换器电路(Boost Converter),建模为含2个子系统的切换系统。
  • 参数设置:( t{\text{min}}=10 ), ( t{\text{max}}=20 ), DQN超参数(如探索率( \epsilon=0.7 ))。
  • 对比方法:传统固定增益ILC、零补偿、末时刻补偿、迭代平均算子补偿。
  • 结果
    • IESS在数据缺失时仍能快速收敛(图5-6)。
    • DQN优化的控制器比固定增益ILC误差更小(图7-8)。
    • 最小迭代次数( L=16 )时系统达到稳定(图8)。

4. 主要研究结果

  1. IESS有效性:在可变运行长度下,填补缺失数据的速度优于传统补偿方法(图10)。
  2. DQN优化增益:控制器增益随时间动态调整(图13),显著提升跟踪精度。
  3. 理论贡献:严格证明收敛性,并给出最小迭代次数的显式表达式。

5. 研究结论与价值

  • 科学价值
    • 首次将强化学习引入切换系统的ILC增益优化。
    • 提出IESS解决可变运行长度问题,为实际工程中的安全终止提供解决方案。
  • 应用价值:适用于机器人、电机控制、智能交通等需高精度迭代学习的场景。

6. 研究亮点

  1. 方法创新:结合开环P型与闭环PD型控制,利用DQN优化增益。
  2. 理论严谨性:严格证明收敛性,并量化最小迭代次数。
  3. 工程适用性:通过升压转换器案例验证方法的实用性。

7. 其他有价值内容

  • 对比实验:验证了IESS优于其他数据补偿方法(图9-10)。
  • 抗噪性能:在随机噪声下,含差分项的ILC仍保持稳定(图12)。

该研究为切换系统的迭代学习控制提供了新思路,兼具理论深度与工程应用潜力。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com