本文档属于类型a:单篇原创研究的学术报告。以下是针对该研究的详细学术报告:
基于信任的可调速率控制屏障函数在非合作多智能体系统中的应用研究
一、作者及发表信息
本研究由Hardik Parwana(密歇根大学机器人系)、Aquib Mustafa(Sensia公司高级技术与研究部门)和Dimitra Panagou(密歇根大学机器人系与航空航天工程系)合作完成,发表于2022年IEEE第61届决策与控制会议(CDC),会议于2022年12月6日至9日在墨西哥坎昆举行。研究得到美国海军研究办公室(ONR)的资助(项目编号N00014-20-1-2395)。
二、学术背景
本研究属于多智能体系统(Multi-Agent Systems, MAS)与安全关键控制(Safety-Critical Control)交叉领域。背景问题在于:传统多智能体协作算法通常假设所有智能体均为合作型,但实际场景中可能存在非合作(uncooperative)或对抗型(adversarial)智能体,导致系统安全性失效。现有方法(如控制屏障函数Control Barrier Functions, CBFs)要么需预先已知智能体身份,要么因过度保守而牺牲任务效率。为此,本研究提出一种基于信任(trust)的自适应CBF框架,通过动态调整安全约束的严格程度(即“速率可调”),在保证安全性的同时减少保守性。
三、研究流程与方法
1. 信任模型设计
- 目标:量化智能体间的合作程度。
- 方法:定义三类行为模式:
- 合作型(cooperative):优先维护安全性;
- 非合作型(uncooperative):优先自身任务,忽视安全;
- 对抗型(adversarial):主动引发碰撞。
- 信任评分:通过两个指标动态计算:
- 距离信任(ρd):基于CBF约束的满足裕度(公式24);
- 方向信任(ρθ):比较实际运动与标称运动方向的偏离(公式25)。
- 动态调整:信任评分ρ∈[-1,1]通过公式26综合计算,用于实时调整CBF参数α(公式27)。
速率可调CBF(RT-CBF)
实验验证
四、主要结果
1. 信任驱动的α调整:
- 对抗型智能体的信任评分ρ迅速降至负值(图4),触发α减小以强化安全约束;
- 非合作型智能体的ρ波动较小,α调整幅度适中。
2. 安全性保证:
- 所有屏障函数hij始终大于零(图6),证明RT-CBF的有效性;
- 对比实验中固定α方案因无法适应动态环境导致hij=0(碰撞)。
3. 任务效率提升:
- 自适应α的智能体路径更接近标称轨迹(图3b),任务完成时间缩短20%。
五、结论与价值
1. 科学价值:
- 提出首个将信任模型与CBF结合的框架,为非合作MAS的安全控制提供新范式;
- 理论证明动态α不影响安全性(定理1),并给出多约束兼容性条件(定理2)。
2. 应用价值:
- 适用于无人机编队、自动驾驶等需应对未知干扰的场景;
- 开源代码(GitHub链接)推动工业界落地。
六、研究亮点
1. 方法创新:
- 信任评分融合几何(距离)与行为(方向)特征,优于传统二值分类;
- RT-CBF通过QP实现实时计算(<10ms/步),满足实时性需求。
2. 理论突破:
- 解决动态α下的安全性证明难题,扩展了CBF的应用范围。
七、其他价值
- 提出的半自主系统信任建模方法可迁移至人机协作领域;
- 实验设计涵盖异构智能体(独轮车与积分器模型),验证算法普适性。
(注:实际报告中可补充具体数据图表说明,此处因篇幅限制略去部分细节。)