分享自:

紧密耦合的视觉-惯性-激光雷达SLAM算法研究

期刊:SensorsDOI:10.3390/s23104588

学术研究报告:VILO SLAM——结合激光雷达的紧耦合双目视觉-惯性SLAM系统

作者与发表信息

本研究由Gang PengYicheng Zhou(通讯作者)、Lu HuLi XiaoZhigang SunZhangang WuXukang Zhu共同完成。作者团队来自华中科技大学人工智能与自动化学院图像信息处理与智能控制教育部重点实验室(武汉),以及山推工程机械股份有限公司(济宁)。论文《VILO SLAM: Tightly Coupled Binocular Vision–Inertia SLAM Combined with LiDAR》于2023年5月9日发表于期刊Sensors(2023年第23卷,第4588页),遵循Creative Commons Attribution (CC BY) 4.0开源协议。

学术背景

研究领域与动机

本研究属于机器人同步定位与建图(SLAM)领域,聚焦多传感器融合技术。传统视觉-惯性SLAM(VINS)在机器人匀速运动、纯旋转或视觉特征缺失场景(如低光照、弱纹理)中面临精度下降和鲁棒性不足的问题。为解决这一挑战,作者提出VILO SLAM框架,通过紧耦合(tightly coupled)融合低成本2D激光雷达(LiDAR)与双目视觉-惯性观测,提升复杂环境下的定位精度和系统稳定性。

技术背景

  1. 视觉SLAM的局限性:纯视觉算法(如ORB-SLAM2)依赖环境纹理特征,在特征缺失时易失效。
  2. 惯性测量单元(IMU)的补充作用:IMU提供短期高精度运动追踪,但长期积分会导致误差累积,尤其在匀速运动时因缺乏激励(excitation)而失效。
  3. 激光雷达的优势:LiDAR抗干扰性强、测距精度高,可在视觉失效时提供运动约束。

研究目标

  • 设计紧耦合的视觉-惯性-激光雷达状态估计框架。
  • 推导激光雷达残差对状态变量的雅可比矩阵,构建多传感器联合优化的非线性最小二乘问题。
  • 验证算法在极端场景(如黑暗、强光、动态障碍物)下的鲁棒性。

研究流程与方法

1. 系统架构与时间同步

传感器配置:双目相机、IMU、2D LiDAR。
数据同步
- 相机-IMU帧率降至10 Hz以保证实时性。
- LiDAR数据(20 Hz)通过IMU运动补偿和线性插值对齐至相机-IMU时间戳(图2)。
关键创新:利用IMU原始数据校正LiDAR运动畸变,确保时间对齐后的数据包(camera-IMU-LiDAR packet)时空一致性。

2. 紧耦合状态估计模型

状态变量定义(公式1):
[ \chi_w = [x_0, x_1, \cdots, x_n, \lambda_0, \lambda_1, \cdots, \lambda_m] ]
其中(xk)包含IMU在世界坐标系下的位置(p^w{bk})、旋转(R^w{bk})、速度(v^w{b_k}),以及加速度计和陀螺仪零偏(b_a, b_g);(\lambda_i)为特征点逆深度。

因子图优化(图3):
- 视觉残差(公式5-6):基于单位球面重投影误差,支持广角镜头模型。
- IMU残差(公式7):预积分模型计算相邻关键帧间的位姿、速度及零偏误差。
- LiDAR残差(公式16-18):通过2D激光雷达里程计模型构造位置约束,忽略姿态角(因IMU已提供高精度姿态积分)。

非线性优化:使用Ceres库求解马氏距离最小化问题(公式3),结合Huber损失函数提升鲁棒性。

3. 激光雷达里程计核心算法

扫描匹配(公式8-15):
1. 将LiDAR位姿估计转化为非线性最小二乘问题:
[ \xi^* = \arg\min_\xi [1 - m(s_i(\xi))]^2 ]
2. 通过高斯-牛顿迭代求解位姿增量(\Delta\xi),利用IMU校正运动畸变。
3. 推导残差雅可比矩阵(公式19),支持紧耦合优化。

主要结果

1. 轨迹精度对比实验

场景:250 m×100 m的室内走廊(弱纹理、高动态、光照变化)。
对比算法:ORB-SLAM2(纯视觉)、VINS-Fusion(视觉-惯性)、VILO(本文)。
结果(表1):
- 位置误差:VILO的欧氏距离误差较ORB-SLAM2降低38.7%,较VINS-Fusion降低20.8%。
- 偏航角误差:较ORB-SLAM2降低48.4%,较VINS-Fusion降低18.1%。
- 鲁棒性:在视觉特征完全丢失且机器人匀速运动时,VILO未发生失效,而对比算法均提前退出。

2. 三维稠密建图实验

方法:基于超像素分箱(super-pixel bins)的稠密重建。
结果(图7):
- ORB-SLAM2因视觉丢失导致建图中断。
- VINS-Fusion在匀速运动时因IMU未激励,建图出现变形。
- VILO建图完整且无显著畸变,真实还原环境结构。

结论与价值

科学价值

  1. 方法论创新:首次实现低成本2D LiDAR与视觉-惯性系统的紧耦合优化,解决了多传感器异构数据融合的数学建模问题。
  2. 算法通用性:框架兼容单目/双目视觉,可扩展至GPS等其他全局传感器。

应用价值

  • 极端环境适应性:适用于黑暗、强光、动态障碍物等传统SLAM失效场景。
  • 工程可行性:10 Hz的实时性能满足地面移动机器人导航需求。

研究亮点

  1. 紧耦合融合:首次推导2D LiDAR残差对状态变量的雅可比矩阵,实现多传感器观测的联合优化。
  2. 抗退化设计:通过LiDAR里程计约束,解决视觉-惯性系统在匀速运动时的激励缺失问题。
  3. 开源贡献:代码结构兼容VINS-Fusion,为社区提供可复现的基准框架。

其他价值

实验数据已通过ROS的rosbag工具公开,支持后续研究对比。作者指出,未来可进一步探索LiDAR特征点与视觉特征的直接关联,以提升建图精度。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com