本研究由Gang Peng、Yicheng Zhou(通讯作者)、Lu Hu、Li Xiao、Zhigang Sun、Zhangang Wu和Xukang Zhu共同完成。作者团队来自华中科技大学人工智能与自动化学院、图像信息处理与智能控制教育部重点实验室(武汉),以及山推工程机械股份有限公司(济宁)。论文《VILO SLAM: Tightly Coupled Binocular Vision–Inertia SLAM Combined with LiDAR》于2023年5月9日发表于期刊Sensors(2023年第23卷,第4588页),遵循Creative Commons Attribution (CC BY) 4.0开源协议。
本研究属于机器人同步定位与建图(SLAM)领域,聚焦多传感器融合技术。传统视觉-惯性SLAM(VINS)在机器人匀速运动、纯旋转或视觉特征缺失场景(如低光照、弱纹理)中面临精度下降和鲁棒性不足的问题。为解决这一挑战,作者提出VILO SLAM框架,通过紧耦合(tightly coupled)融合低成本2D激光雷达(LiDAR)与双目视觉-惯性观测,提升复杂环境下的定位精度和系统稳定性。
传感器配置:双目相机、IMU、2D LiDAR。
数据同步:
- 相机-IMU帧率降至10 Hz以保证实时性。
- LiDAR数据(20 Hz)通过IMU运动补偿和线性插值对齐至相机-IMU时间戳(图2)。
关键创新:利用IMU原始数据校正LiDAR运动畸变,确保时间对齐后的数据包(camera-IMU-LiDAR packet)时空一致性。
状态变量定义(公式1):
[ \chi_w = [x_0, x_1, \cdots, x_n, \lambda_0, \lambda_1, \cdots, \lambda_m] ]
其中(xk)包含IMU在世界坐标系下的位置(p^w{bk})、旋转(R^w{bk})、速度(v^w{b_k}),以及加速度计和陀螺仪零偏(b_a, b_g);(\lambda_i)为特征点逆深度。
因子图优化(图3):
- 视觉残差(公式5-6):基于单位球面重投影误差,支持广角镜头模型。
- IMU残差(公式7):预积分模型计算相邻关键帧间的位姿、速度及零偏误差。
- LiDAR残差(公式16-18):通过2D激光雷达里程计模型构造位置约束,忽略姿态角(因IMU已提供高精度姿态积分)。
非线性优化:使用Ceres库求解马氏距离最小化问题(公式3),结合Huber损失函数提升鲁棒性。
扫描匹配(公式8-15):
1. 将LiDAR位姿估计转化为非线性最小二乘问题:
[ \xi^* = \arg\min_\xi [1 - m(s_i(\xi))]^2 ]
2. 通过高斯-牛顿迭代求解位姿增量(\Delta\xi),利用IMU校正运动畸变。
3. 推导残差雅可比矩阵(公式19),支持紧耦合优化。
场景:250 m×100 m的室内走廊(弱纹理、高动态、光照变化)。
对比算法:ORB-SLAM2(纯视觉)、VINS-Fusion(视觉-惯性)、VILO(本文)。
结果(表1):
- 位置误差:VILO的欧氏距离误差较ORB-SLAM2降低38.7%,较VINS-Fusion降低20.8%。
- 偏航角误差:较ORB-SLAM2降低48.4%,较VINS-Fusion降低18.1%。
- 鲁棒性:在视觉特征完全丢失且机器人匀速运动时,VILO未发生失效,而对比算法均提前退出。
方法:基于超像素分箱(super-pixel bins)的稠密重建。
结果(图7):
- ORB-SLAM2因视觉丢失导致建图中断。
- VINS-Fusion在匀速运动时因IMU未激励,建图出现变形。
- VILO建图完整且无显著畸变,真实还原环境结构。
实验数据已通过ROS的rosbag工具公开,支持后续研究对比。作者指出,未来可进一步探索LiDAR特征点与视觉特征的直接关联,以提升建图精度。