本文由陈琳与刘允刚(通信作者)共同撰写,两位作者均来自山东大学控制科学与工程学院。论文发表于期刊《信息与控制》2022年第51卷第1期(23-40页),DOI号为10.13976/j.cnki.xk.2022.1144,文章编号1002-0411(2022)-01-0023-18。
本文是一篇系统性综述,聚焦于无人机视觉目标跟踪算法(UAV Visual Target Tracking)领域。随着无人机在军事侦察、环境监测、灾害救援等领域的广泛应用,基于视觉的目标跟踪技术成为研究热点。然而,无人机跟踪场景存在四大核心挑战:
1. 目标与背景干扰:空中视野广阔导致目标与背景区分度低;
2. 小目标特征提取困难:高空拍摄时目标分辨率低、纹理稀少;
3. 运动不稳定性:风力等因素导致相机抖动和视角变化;
4. 计算资源受限:多数无人机仅配备单CPU,需低复杂度算法。
本文旨在梳理经典与前沿算法,对比其优劣,并展望未来发展方向。
作者将算法分为生成类(Generative)和判别类(Discriminative)两大体系:
- 生成类方法(如卡尔曼滤波、粒子滤波、均值漂移)通过建模目标外观特征进行跟踪,但忽略背景信息且假设目标外观静态,难以适应复杂场景。例如:
- 卡尔曼滤波(Kalman Filter, KF)在线性高斯系统中有效,但需改进才能处理非线性问题(如Azrad等通过位姿估计实现无人机悬停跟踪);
- 粒子滤波(Particle Filter, PF)虽能处理非线性问题,但存在计算量大、粒子退化等缺陷(如Nummiaro等融合颜色与边缘特征提升短时跟踪效果);
- 均值漂移(MeanShift)通过概率密度分布跟踪目标,但对遮挡敏感(如Hwang提出的分块算法可降低遮挡影响)。
支持数据:文中表2显示,SRDCF、STRCF等算法通过引入空间正则化或多特征融合(HOG+CN+灰度),将距离精度提升至0.676-0.689,但帧率降至11-48 FPS。
典型案例:VITAL算法(式31)利用对抗学习生成难样本,提升遮挡情况下的跟踪稳定性。
作者归纳了无人机目标跟踪的四大评价体系:
1. 距离精度(Distance Precision):如KCF在UAV123上达0.523;
2. 帧率(FPS):轻量级算法MOSSE可达600 FPS;
3. 成功率曲线(Success Plot);
4. 鲁棒性测试(如遮挡、光照变化场景)。
常用数据集包括UAV123、VisDrone等,涵盖不同光照、尺度和运动模糊条件。
作者提出五大展望:
1. 在线学习机制:开发高效的模型更新策略以适应目标外观变化;
2. 遮挡处理:结合重检测(Re-detection)与长时记忆网络;
3. 小目标增强:利用超分辨率或注意力机制提升特征显著性;
4. 跨模态学习:融合红外、雷达等多源数据;
5. 轻量化部署:通过神经网络剪枝(Pruning)适配边缘计算设备。
亮点:
- 详尽的算法对比(覆盖20余种算法,见表1缩写列表);
- 针对无人机平台特性(如计算限制)提出专用解决方案;
- 指出迁移学习与元学习(如Mate-TD3算法)在动态环境中的潜力。
本文为后续研究提供了清晰的技术路线图,尤其对资源受限场景下的实时跟踪算法设计具有指导意义。