分享自:

分级控制实现人形机器人稳健站立稳定性与跌倒恢复

期刊:IEEE Transactions on Automation Science and EngineeringDOI:10.1109/TASE.2025.3608186

人形机器人分层控制框架研究:实现稳健站立稳定性与跌倒恢复的创新方法

作者与机构
本研究由Chiyu Zhang、Jihe Bai、Ziyu Chen、Jie Gao和Hong Qiao(IEEE Fellow)共同完成,作者团队来自中国科学院自动化研究所多模态人工智能系统全国重点实验室及中国科学院大学人工智能学院,合作单位包括北京科技大学智能科学与技术学院。研究成果发表于2025年的*IEEE Transactions on Automation Science and Engineering*(卷22),论文标题为《Hierarchical Control for Robust Standing Stability and Fall Recovery of Task-Performing Humanoid Robots》,DOI编号10.1109/TASE.2025.3608186。


研究背景与目标

人形机器人在人类中心化环境中(如工厂、家庭)的应用需同时满足操作任务精度动态稳定性的冲突需求。传统平衡策略(如跨步调整)会干扰任务执行,而静态站立策略难以抵抗外部扰动。针对这一矛盾,本研究提出一种分层控制框架,通过强化学习(Reinforcement Learning, RL)、踝关节策略(ankle strategy)和跌倒预测(fall prediction)的协同优化,实现三个核心目标:
1. 非跨步稳定性:在操作任务中避免足部移动导致的动作中断。
2. 快速扰动力矩补偿:通过动态调整零力矩点(Zero-Moment Point, ZMP)消除运动发散分量(Divergent Component of Motion, DCM)误差。
3. 临界状态恢复:当扰动超出阈值时触发跨步策略防止跌倒。


研究方法与流程

研究分为四个主要阶段,以Q系列人形机器人Q3B(身高1.8米,40自由度)为实验平台,结合仿真(Isaac Gym引擎)与实物验证:

1. 强化学习策略训练

  • 任务设计:分阶段训练站立策略,奖励函数严格惩罚身体摆动(body sway)和足部移动(foot lift),目标为无跨步扰动抑制。
  • 多阶段训练
    • 第一阶段:高权重稳定性惩罚,强制机器人保持静止。
    • 第二阶段:引入高度随机化和域随机化(domain randomization),模拟负载变化(如上肢持重)、传感器噪声和延迟。
    • 第三阶段:在不平整地形训练,加入踝关节力矩惩罚项以增强抗干扰能力。
  • 算法细节:采用近端策略优化(PPO),输入47维观测向量(含历史状态),输出关节目标位置;Critic网络使用73维特权观测以提升仿真-现实迁移性。

2. 踝关节策略嵌入

  • 动态ZMP调制:基于DCM动力学模型(式6),通过调整踝关节力矩实时修正ZMP位置,抑制DCM误差(式12)。
  • 实现方式:将计算得到的ZMP偏移量转换为踝关节零位调整量(式13),叠加至RL输出信号,控制频率1 kHz。
  • 优势:与RL策略并行运行,补偿模型误差和外部扰动,实验显示扰动抵抗能力提升30%。

3. 跌倒预测与恢复机制

  • 分类模型:基于支持向量机(SVM)提取15维状态特征(如关节位姿、身体倾角),结合9类统计量(均值、方差等)判断稳定状态。
  • 时间累积效应:设计累积函数(式14)区分瞬时扰动与持续失衡,概率阈值(70%)触发跨步策略切换。
  • 实时性:预测模块计算时间5 ms,运行频率100 Hz,硬件测试显示可提前3-5步预测跌倒风险。

4. 实验验证

  • 仿真测试:在MuJoCo环境中对比四类控制器(纯RL、混合RL、MPC+WBC、本框架),本方法在30 N持续推力下踝关节力矩收敛速度最快(图5),且无身体摆动。
  • 实物验证
    • 单臂负载测试:Q3B机器人单臂持5 kg负载时,踝关节策略成功抑制前倾力矩(图6)。
    • 复杂任务:射箭(需双臂全展)和零件抓取/放置任务中,100次试验成功率100%(图1、图9)。

核心结果与逻辑链条

  1. 分层框架有效性:踝关节策略将RL策略的扰动抵抗极限从20 N·s脉冲提升至26 N·s(表III),且实验显示DCM误差收敛时间缩短50%。
  2. 模式切换必要性:跌倒预测模块在临界扰动(如侧向推力)下自动切换至跨步策略,避免任务中断(图8)。
  3. 任务通用性:射箭任务中,机器人下肢在臂部运动产生的力矩变化下仍保持稳定(图9b),验证框架对复杂操作的适应性。

结论与价值

  1. 科学价值:提出首个融合RL与模型控制(DCM理论)的分层框架,解决“静态操作”与“动态抗扰”的矛盾,为多目标控制提供新范式。
  2. 应用价值:在工业场景(如精密装配)和动态任务(如救援)中实现高稳定性操作,实验成功率达100%。
  3. 局限性:当前感知模块依赖简化模型,未来需整合视觉/LiDAR;上下肢控制解耦限制全身协同动作(如弯腰作业)。

创新亮点

  1. 混合训练方法:通过分阶段RL训练和域随机化,首次实现“零跨步”强约束下的站立策略。
  2. 实时ZMP调制:将DCM理论嵌入RL策略,以O(1)计算复杂度实现动态补偿。
  3. 概率化跌倒预测:结合SVM与时间累积效应,显著降低误报率(对比CNN/LSTM,计算效率提升3倍,表IX)。

未来方向:扩展多模态感知、开发全身协同控制算法,推动人形机器人从实验室走向实际应用。


(注:专业术语如ZMP、DCM首次出现时标注英文,实验数据引用原文图表编号。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com