农业机器人玉米冠层下导航线提取:基于单目相机与3D激光雷达的特征级融合方法
作者及机构
本研究由中国农业大学工程学院的Chao Ban、Tong Su、Ruijuan Chi(通讯作者)、Guohui Fu团队与洛阳智能农业动力装备国家重点实验室的Lin Wang合作完成,发表于2025年2月的《Computers and Electronics in Agriculture》期刊(卷232,文章编号110124)。
学术背景
玉米作为全球第二大种植作物,其生长周期中的监测、喷药和施肥等农事操作高度依赖自动化技术。传统基于GNSS(全球导航卫星系统)或冠层上方传感器的导航方法在中后期高秆玉米田中面临挑战:冠层茂密、叶片交叉、光线多变导致导航线提取困难。为此,本研究提出一种基于玉米茎秆为参照物的特征级融合方法,通过低置的单目相机与3D激光雷达(LiDAR)数据融合,实现冠层下高精度导航线提取。
研究流程
传感器配置与数据采集
图像语义分割(StemFormer网络)
点云处理与自适应半径滤波(ARF)
导航线拟合
主要结果
- 导航线精度:正常、遮挡、出口场景的平均正确率(CR)分别为98.00%、92.50%、90.50%,整体CR达93.67%;航向角平均绝对误差(MAE)1.53°,标准差(SD)1.46°。
- 实时性:全流程最大运行时间80.58 ms,低于传感器采集周期(100 ms)。
- 对比优势:相较于Gai等(2021)的航向角MAE 3.2°,本方法误差降低52%。
结论与价值
本研究通过多模态传感器融合,解决了高秆玉米冠层下导航线提取的难题。科学价值在于:
1. 提出首个基于Transformer的玉米茎秆分割网络StemFormer,平衡局部与全局特征;
2. 开发自适应半径滤波(ARF),提升稀疏点云下的茎秆定位鲁棒性;
3. 特征级融合策略为复杂农业场景的机器人导航提供新范式。
应用价值:可扩展至高粱、果园等类似场景,支持精准农业中的自动化喷药与施肥。
研究亮点
1. 方法创新:首次将单目相机与3D LiDAR的特征级融合应用于玉米冠层下导航,克服单一传感器局限性。
2. 技术突破:StemFormer网络在保持低复杂度(11.13 G FLOPs)下实现高精度分割;ARF算法通过动态阈值优化噪声过滤。
3. 场景普适性:在遮挡、光线变化等复杂条件下仍保持93%以上的导航线提取正确率。
局限性:未针对其他高秆作物(如甘蔗)验证泛化性,且传感器成本较高。未来拟通过多传感器分布式布局进一步优化系统。
(注:全文术语首次出现均标注英文,如“平均交并比(MIoU, Mean Intersection over Union)”)