基于视觉的无人机集群编队控制:一种分层架构方法
作者及机构
本研究由Liqun Ma(北京理工大学与航天神舟飞行器有限公司联合培养博士后)、Dongyuan Meng、Xu Huang(航天神舟飞行器有限公司)以及Shuaihe Zhao(北京理工大学与航天神舟飞行器有限公司联合培养博士后)共同完成,发表于2023年7月的期刊 *IEEE Access*(DOI: 10.1109/ACCESS.2023.3296603)。
研究领域与动机
该研究属于无人机(UAV)集群控制与计算机视觉交叉领域。在GPS拒止环境中(如信号受干扰或遮挡),无人机集群的相对定位与编队控制面临严峻挑战。传统依赖全球导航卫星系统(GNSS)的方法失效时,需开发不依赖外部定位的替代方案。现有视觉定位技术(如协作SLAM、UWB)多限于室内场景,而室外环境下无人机体积小、背景复杂、外观相似等问题增加了视觉检测与跟踪的难度。
研究目标
提出一种基于单目视觉的分层架构编队控制策略,仅需一架领航无人机(Leader UAV)搭载摄像头,通过深度学习算法(YOLOv7和DeepSORT)实现跟随无人机(Follower UAVs)的检测、跟踪与定位,最终在无GNSS条件下完成集群编队控制。
(1)检测(Detection)
- 算法选择:对比YOLOv7-tiny、YOLOv7和YOLOv7-x三种模型,最终选用YOLOv7-tiny(参数量603万),在保持高精度(平均精度AP>94%)的同时满足实时性需求(推理延迟46 ms)。
- 数据集:通过仿真(RflySim平台)和真实飞行试验采集3900张图像,标注无人机目标框,按8:1:1划分训练集、验证集和测试集。
(2)跟踪(Tracking)
- 算法改进:在SORT(基于卡尔曼滤波和匈牙利算法)基础上引入DeepSORT,结合运动模型(马氏距离)和外观特征(CNN描述符),减少遮挡导致的ID切换。
- 无标记ID校正:初始帧根据空间位置预分配ID,替代DeepSORT的随机分配,有效过滤误检(FP)。
(3)定位(Localization)
- 坐标系转换:通过相机标定参数(旋转矩阵 (^bR_c))和无人机姿态数据(IMU),将图像坐标系中的目标位置转换至全局坐标系。
- 高度估计:利用领航与跟随无人机的相对高度(已知)和相机焦距,计算目标距离。
(4)编队控制(Formation Control)
- 控制律设计:基于单积分器模型,采用一致性协议(Consensus Protocol)生成速度指令,饱和函数限制最大速度((u_{\text{max}}=5\text{m/s}))。
- 避撞机制:人工势场法(APF)在距离 m时触发。
科学价值
- 为GNSS拒止环境下的无人机集群提供了可行的视觉定位解决方案,填补了室外场景研究的空白。
- 验证了深度学习在动态目标跟踪中的泛化能力,尤其针对小目标(远距离无人机)和相似外观目标。
应用价值
- 可扩展至军事侦察、灾害救援等任务,其中隐蔽性和抗干扰能力至关重要。
- 分层架构设计为资源受限的小型无人机集群提供了工程实践参考。
亮点总结
1. 低成本高鲁棒性:仅需一架无人机配备相机,其余节点硬件需求极低。
2. 算法创新:结合最新YOLOv7与DeepSORT,优化了复杂背景下的多目标跟踪精度。
3. 全流程验证:从仿真到真实飞行,覆盖多场景测试,数据可复现性强。
(全文约2000字)