分享自:

基于因子图的无人机视觉定位方法

期刊:航空学报DOI:10.7527/s1000-6893.2022.27627

万宏发*、李姗姗、蓝朝桢、向明志来自信息工程大学地理空间信息学院的研究团队在《航空学报》2023年6月25日第44卷S1期发表了一篇关于无人机视觉定位方法的研究论文。该研究旨在解决在强电磁干扰和复杂环境下全球导航卫星系统(GNSS)信号拒止时,无人机高精度定位失效的问题。研究团队提出了一种基于因子图(Factor Graph)融合影像匹配和视觉信息的光束法平差(Bundle Adjustment)方法,以应对无人机在小交会角条件下的视觉定位问题。

学术背景

无人机在现代军事和民用领域中扮演着越来越重要的角色,其高精度定位主要依赖于全球导航卫星系统(GNSS)和惯性测量单元(IMU)的组合导航。然而,在强电磁干扰或复杂环境中,GNSS信号可能会被拒止,导致定位失效。因此,探索一种在GNSS拒止环境下的导航定位手段成为提高无人机生存能力的关键问题。视觉导航作为一种不依赖GNSS信号的定位方式,具有轻便、低成本、信息丰富等优点,但其在无人机应用中面临高程方向交会精度差、绝对尺度信息缺失、累积误差无法消除和定位轨迹不连续等问题。

研究流程

研究团队提出的方法主要包括以下几个步骤:

  1. 视觉里程计(Visual Odometry)定位算法:该算法通过帧间的匹配关系和对极几何(Epipolar Geometry)方法,恢复两帧之间的相对位姿关系。视觉里程计具有定位鲁棒性强、轨迹连续性好的优点,但存在累积误差和尺度缺失问题。

  2. 影像匹配定位算法:该算法通过在全球遥感影像库中搜索航摄影像,并使用搜索到的基准影像进行匹配,利用匹配特征点的绝对坐标和高程信息进行定位。影像匹配定位方法可进行绝对定位,不受累积误差影响,但定位轨迹连续性差,精度依赖于匹配算法的精度。

  3. 因子图融合优化方法:研究团队提出了基于因子图的增量式融合优化方法,将视觉里程计和影像匹配定位算法相结合,利用因子图构建优化问题,进行增量更新。该方法通过融合影像匹配和视觉信息的光束法平差,解决了无人机小交会角下的自主绝对定位问题。

主要结果

研究团队通过多组实验验证了所提出方法的有效性。实验结果表明,该方法在实际无人机飞行中显著提高了视觉里程计的定位精度,能够实现自主绝对定位,有效填补了GNSS信号缺失的情况。具体实验结果如下:

  1. 实验1:在初始定位阶段,由于匹配的控制点数量不足,定位精度一般,但随着匹配的控制点增多,定位精度显著提升。

  2. 实验2:在影像中出现水域等特征稀疏地形时,普通视觉定位效果明显变差,而融合基准影像的单目视觉定位方法在异源影像匹配的特征较为稳定时,能够很好地融合控制信息并提高定位精度。

  3. 实验3:在居民地等城市建筑特征场景中,融合方法在精度和稳定性上均优于单独的定位方法,且计算速度近似于基准影像匹配方法。

结论

研究团队提出的基于因子图融合基准影像参考控制信息的视觉定位方法,在GNSS拒止环境下依然能够提供无人机定位与导航功能。该方法在精度和定位轨迹的连续性和一致性上较普通视觉定位方法有较大提高,适用于无人机自主定位。

研究亮点

  1. 创新性方法:研究团队首次提出基于因子图融合影像匹配和视觉信息的光束法平差方法,解决了无人机小交会角下的自主绝对定位问题。
  2. 多源数据融合:通过融合视觉里程计和影像匹配定位算法,实现了优势互补,提高了定位精度和鲁棒性。
  3. 实际应用价值:该方法在GNSS拒止环境下依然能够提供高精度定位,具有重要的军事和民用应用价值。

其他有价值内容

研究团队还详细介绍了因子图模型的构建和优化过程,以及增量式融合优化的具体实现方法。这些内容为后续研究提供了重要的参考和借鉴。

万宏发等研究团队的研究为无人机在GNSS拒止环境下的高精度定位提供了新的解决方案,具有重要的学术价值和实际应用意义。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com