分享自:

四足机器人高级运动学习的分布式多智能体强化学习框架与黎曼运动策略

期刊:roboticsDOI:10.3390/robotics13060086

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


四足机器人高级运动学习的分布式多智能体强化学习框架与黎曼运动策略

作者及机构
本研究由日本筑波大学的Yuliu Wang(第一作者兼通讯作者)、Ryusuke Sagawa以及日本产业技术综合研究所(AIST)的Yusuke Yoshiyasu合作完成,发表于期刊Robotics 2024年第13卷第86期,论文标题为《Learning Advanced Locomotion for Quadrupedal Robots: A Distributed Multi-Agent Reinforcement Learning Framework with Riemannian Motion Policies》。

学术背景
四足机器人因其在复杂地形中的稳定性和灵活性备受关注,但传统控制方法(如模型预测控制MPC或零力矩点ZMP)难以实现动态运动(如跳跃或双足行走)。强化学习(RL)虽能通过试错学习自适应策略,但存在奖励函数设计复杂、训练时间长、策略可解释性差等问题。黎曼运动策略(Riemannian Motion Policies, RMPs)作为一种反应式控制方法,擅长处理高动态系统,但此前仅适用于完全驱动系统(如机械臂),而四足机器人属于欠驱动系统(underactuated systems),直接应用RMPs存在挑战。
本研究旨在通过多智能体强化学习(MARL)框架,将四足机器人的每条腿视为独立智能体,结合RMPs实现高级运动控制(如三足、双足甚至单足行走),解决传统方法的局限性。

研究流程与方法
1. 动态空间分解与RMPs设计
- 分解策略:将机器人分为四个动态子系统(每条腿与躯干),每个子系统为完全驱动系统,满足RMPs应用条件。
- RMPs类型
- 目标RMP(Target RMP):通过公式 ( ẍ = k_p(x_0 - x)/(|x_0 - x|+ϵ) - k_d|ẋ|ẋ ) 跟踪躯干质心(CoM)位置,保持平衡。
- 碰撞避免RMP(Collision Avoidance RMP):通过排斥加速度策略防止腿部碰撞,公式为 ( ẍ = k_p \exp(-x/l_p) - k_d \frac{σ(ẋ)ẋ}{x/l_d + ϵd} )。
- 黎曼度量设计:通过混合矩阵(如 ( m = [β(x)b + (1-β(x))][α(x)m
{\text{near}} + (1-α(x))m_{\text{far}}] ))动态调整控制权重。

  1. 多头部RL智能体架构

    • 结构设计:每个腿部智能体包含离散头部(选择RMP类型)和连续头部(输出关节力矩),共享环境特征提取器。
    • 策略输出:离散头部通过分类分布选择RMP,连续头部通过高斯分布生成关节力矩,实现端到端控制。
  2. 分布式多智能体强化学习训练

    • 训练框架:采用集中训练分散执行(CTDE)范式,使用多智能体近端策略优化(MAPPO)算法。
    • 奖励函数:包含质心跟踪奖励 ( r{\text{gap}} = e^{-(|x{\text{com}}-x{\text{target}}| + |y{\text{com}}-y{\text{target}}| + |z{\text{com}}-z{\text{target}}|)} )、姿态奖励 ( r{\text{angle}} = e^{-|ψ|} ),以及腿部触地惩罚项 ( c_{\text{leg}} )。
    • 训练环境:在Isaac Gym中并行4096个仿真,使用ANYmal C机器人模型,引入域随机化(如关节刚度误差±0.08、摩擦系数±0.05)提升泛化能力。

主要结果
1. 训练效率与稳定性
- 在三足行走任务中,本方法成功率98.6%,质心偏差(x/y/z方向)分别为±0.05m、±0.04m、±0.36m,显著优于PPO(94.6%成功率,偏差±0.06m、±0.5m、±0.58m)。
- 双足直立行走任务中,本方法成功率98.3%,而PPO仅42.7%,且质心偏差(±1.15m、±1.13m、±0.62m)远低于PPO(±6.4m、±5.7m、±3.5m)。
- 单足跳跃任务中,本方法成功率86.2%,PPO完全失败,MPC成功率仅64.2%。

  1. 动态协调机制
    • 通过MARL框架,四条腿的智能体在扰动中动态平衡:单腿动作影响其他腿的环境状态,中央协调策略调整权重,最终实现质心稳定跟踪。
    • 实验显示,非行走腿的运动仍贡献于质心稳定(如双足行走中,闲置腿的微调动作减少躯干晃动)。

结论与价值
1. 科学价值
- 首次将RMPs扩展至欠驱动四足机器人,提出基于MARL的动态空间分解方法,为复杂系统控制提供新思路。
- 验证了多头部智能体架构在混合动作空间(离散+连续)中的有效性,简化了奖励函数设计。

  1. 应用价值
    • 使四足机器人具备多模态运动能力(如单腿跳跃时自由腿可执行操作任务),适用于搜救、工业检测等场景。
    • 方法通用性强,仅需调整惩罚项即可适应不同任务,无需复杂奖励工程。

研究亮点
1. 创新方法:结合MARL与RMPs,解决欠驱动系统的RMPs应用难题。
2. 高效训练:在稀疏奖励下快速学习高难度运动(如单腿平衡),训练速度优于传统RL。
3. 可解释性:RMPs的几何结构提供策略行为的直观解释,优于黑箱式深度RL。

其他价值
- 提出的域随机化参数(如质量误差±1.5g、CoM高度误差±0.5cm)为仿真到实物的迁移学习提供参考。
- 开源仿真实验视频,便于复现与后续研究。


(注:全文约2000字,涵盖研究全流程及细节,符合学术报告要求。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com