分享自:

多无人机协作单目SLAM框架研究

期刊:IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)

学术报告

研究的主要研究者和机构信息

本文研究由以下学者完成,他们分别是 Christian Forster(Artificial Intelligence Lab—Robotics and Perception Group, University of Zurich, Switzerland),Simon Lynen(Autonomous Systems Lab, ETH Zurich, Switzerland),Laurent Kneip(Autonomous Systems Lab, ETH Zurich, Switzerland)以及 Davide Scaramuzza(Artificial Intelligence Lab—Robotics and Perception Group, University of Zurich, Switzerland)。该研究发表于 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),会场为日本东京。


研究背景

此研究主要涉及机器人学(Robotics)领域,研究课题重点在于利用单目视觉的同步定位与建图(SLAM, Simultaneous Localization and Mapping)技术来实现多台微型飞行器(Micro Aerial Vehicles, MAVs)在未知环境中协作完成定位与构图任务。传统微型飞行器在如城市或室内等GPS信号不好或缺失的环境中,由于硬件限制,难以高效实现自定位与环境建图。尤其在重量和电源受限的条件下,使用传统重型激光雷达(Laser Scanner)和传感器并不可行,因此提出利用机载相机和惯性测量单元(IMU, Inertial Measurement Unit)的结合。团队在此前研究中已经实现了单台微型飞行器使用单目摄像头和IMU进行自主动态飞行的基本操作,此工作的目标是在领域内更进一步,实现多个飞行器的协同工作。

通过多台飞行器协作的方式,不仅可以共享工作负载以增强系统鲁棒性,还可以规划全局任务路径,进一步推动多机器人路径规划及合作行为的研究。然而,多机器人SLAM也带来了计算和通信负载的显著提升。本研究旨在通过设计一种高效的系统框架,不仅能够解决多机协作SLAM的难题,还能够满足实时性要求。


研究流程

系统框架与主要方法

研究的核心在于开发一个名为 Collaborative Structure From Motion (CSFM) 的系统框架,该框架通过将飞行器任务分为“低级计算”和“高级处理”两类来高效分配资源。飞行器的机载计算单元仅负责低级任务(如特征提取、相对位姿估计和飞行控制),数据经由无线链路传输到地面站,由跑在地面站的CSFM系统完成高级任务(如全局建图、回环检测和地图融合)。

具体来说,CSFM 系统的核心包括以下模块:
1. 单目视觉里程计(VO, Visual Odometry)算法:每台MAV通过机载单目摄像头运行VO算法,实时跟踪自身位置并生成关键帧,包括提取的特征点、关键帧的位姿及其间的相对变换。
2. 地图数据结构与线程管理:地面站创建为每台MAV分配独立的数据处理线程,同时使用特定的数据结构和C++并发控制机制,使多个线程能够并行读写同一地图。关键帧的处理顺序是异步的,并且即使MAV之间开始时间不同或通信中断,系统依然能够工作。
3. 重叠检测与地图融合:每台MAV的单独地图在检测到地理特征重叠区域时,通过位置识别模块和几何转换模块合并为全球地图。此外,通过回环闭合优化校正路径偏差。


系统架构与实现细节

研究的流程分为以下几个主要步骤和实验阶段:

  1. 关键帧提取与信息传输
    每台MAV跟踪其自身相对于起始点的位置。当VO算法选择一个关键帧时,系统会提取图像特征点,并将其与前一个关键帧的相对位姿(旋转矩阵和位移向量)发送至地面站。

  2. 地面站的帧处理
    地面站上运行CSFM系统,每个MAV对应一个帧处理线程。处理分两种情况:若为新建线程,第一个关键帧会用于初始化;否则,会计算新的关键帧与现有地图3D点的对应关系,同时,优化关键帧在全局坐标系下的6自由度(6DoF)绝对位姿。

  3. 位姿优化和局部调整
    关键帧位姿通过非线性最小二乘优化,它减小了地图点在图像平面上的重投影误差。随后,通过局部捆绑调整(Local BA)进一步细化所有观测到该帧点的四个核心关键帧及其对应点的位姿和尺度。

  4. 尺度差的估计与校正
    在单目视觉系统中,由于缺乏深度信息,VO算法计算的相对位移仅为未知尺度的相机运动,而这一尺度会随时间漂移。在地图建立中,通过比较优化前后关键帧的相对位移大小,动态校正原始尺度差,消除“尺度跳跃问题”。

  5. 回环检测与地图合并
    在系统检测到两个地图存在重叠时,通过几何验证确定空间变换关系(包括旋转、位移和尺度因子),并进行地图合并操作。合并后的地图点与对齐关键帧重新投影,消除冗余并进一步优化。此外,回环检测捕获大范围运动路径中的漂移并通过全局图优化(Pose Graph Optimization)校正全局一致性。


实验结果

研究进行了多项室内和室外实验。

  1. 室内实验
    实验环境为8×8米的平面,地面站通过Vicon运动捕捉系统获取高频率(100Hz)毫米级精确位置信息作为实验真值(Ground Truth)。
    重投影误差实验表明,通过局部捆绑调整和尺度校正后,新接收关键帧的重投影误差可以从初始的5像素下降至1像素以下。此外,在处理路径闭合时,通过图优化大幅减小全局错误,从回环前的0.1米降低到回环后的0.04米。

  2. 室外实验
    研究使用来自SFLY项目的飞行数据,两台MAV共同执行400米长的轨迹任务。在地图完成后,同一位置的两台MAV能在他者建立的地图中定位。尽管GPS数据在环境中不够精确(误差5至15米),但实验显示在环境纹理复杂的地方,仍能生成高质量的稀疏地图。

  3. 多机系统性能
    系统证明了在多架飞行器同时工作时,基于并行化线程管理,不同MAV处理线程几乎不互相影响。同时,即使文件传输限于1Mbps,该系统仍能高效运行,避免了480p全帧图像传输所需的高昂带宽。


研究结论和意义

本文创新性地提出了CSFM系统框架,通过将计算负担分散到飞行器与地面站之间,实现了低功耗和高性能的多机协同SLAM。本研究不仅解决了传统单机SLAM扩展到多机器人场景时面临的数据传输与计算瓶颈,还表明在未知环境下多个飞行器可以高效生成全局一致的三维地图。这一成果在安防监控、搜索救援及环境巡检等任务中具有潜在应用价值。


研究亮点

  1. 提出了新颖的分布式SLAM架构,将计算任务高效拆分至MAV与地面站。
  2. 提出了动态尺度校正算法,成功规避尺度漂移问题。
  3. 开发了同时支持多个线程并发访问和修改地图的数据结构。
  4. 实现了多机协同地图构建的实时性,达到了45Hz的关键帧处理速率。

此研究为未来在复杂场景下基于视觉的自主机器人集群技术奠定了基础,并为多机系统的路径规划及协作行为开辟了新方向。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com