作者及机构
本研究由赖汉荣、张亚伟(※通信作者)、张宾(中国农业大学工学院)、尹彦鑫(北京市农林科学院智能装备技术研究中心/智能农业动力装备全国重点实验室)、刘宇航、董雨航(中国农业大学工学院)合作完成,发表于《农业工程学报》(Transactions of the Chinese Society of Agricultural Engineering)2023年第39卷第1期。
研究领域与动机
该研究属于农业机器人智能导航领域,聚焦玉米田间除草场景。传统除草依赖人工或化学药剂,存在效率低、污染环境等问题。基于机器视觉的自主除草机器人可解决上述痛点,但其核心挑战在于苗带的实时精准识别与跟踪。现有技术存在光照敏感性高、算法耗时(如张博立等方法单帧处理需320 ms)、田间适应性差等问题。
研究目标
开发一种基于视觉的玉米苗带实时识别与导航控制系统,重点提升算法实时性(目标处理速度<100 ms/帧)和抗干扰能力(复杂光照、杂草场景下准确率>95%),并通过运动学模型优化路径跟踪精度(误差≤1.5 cm)。
图像预处理
- 数据采集:使用1920×1080分辨率工业相机(Rmoncam G200),在北京昌平区玉米田采集3~4叶期苗带图像,覆盖强光、阴雨、杂草丛生等场景。
- 颜色增强:采用归一化超绿算法(ExG, Excess Green)分离绿色植被与土壤背景。通过优化最大类间方差法(Otsu)阈值权重,动态调整绿色最优阈值(公式3),显著提升弱光条件下的分割效果(图2d)。
特征点提取与优化
- 改进SUSAN角点检测:将传统SUSAN(Small Univalue Segment Assimilating Nucleus)算法的固定响应阈值改为自适应阈值(公式7),比例系数k=5,使特征点均匀分布于苗带叶尖与茎干(图4)。
- 冗余点剔除:设计3×3检测窗口,根据邻域相似性(公式8)剔除离群点(p=0)和内部冗余点(p≥7),保留1≤p≤6的特征点并优化分布(图3),计算量减少37%。
聚类与导航线拟合
- 改进顺序聚类:结合区域分层预聚类(表1)与顺序聚类,先按图像分块统计特征点密度,再合并相邻同类区域,聚类速度提升28%。
- 动态ROI更新:以最小二乘法拟合苗带直线后,根据横向偏差d和航向偏差β(公式9)实时调整感兴趣区域(ROI, Region of Interest),通过定位点坐标(公式10)实现导航线动态跟踪(图6)。
运动学建模
建立阿克曼底盘二轮车模型(图7),推导横向偏差d与航向偏差β的微分方程(公式12)。基于极点配置理论,设计PID转向角决策模型(公式13),其中比例系数k₁=2l/v(l为轴距),积分系数k₂=l/v²,实现转向响应与速度的自适应匹配。
系统实现
- 硬件平台:搭载48V锂电池的阿克曼底盘(轴距1.2 m),工业相机俯仰角45°、距地1 m安装。
- 软件开发:基于OpenCV库在Visual Studio平台构建控制系统,集成苗带识别、偏差计算、CAN总线通信等功能模块(图10)。
科学价值
- 提出改进SUSAN角点法与动态ROI更新策略,解决了复杂环境下苗带特征提取的实时性与鲁棒性问题。
- 通过运动学模型推导PID参数自适应规律,降低了控制算法对经验调参的依赖。
应用价值
- 导航系统可支持除草机器人以0.3 m/s速度稳定作业,误差≤1.51 cm,满足田间精准除草需求。
- 软件系统开源设计(基于OpenCV)便于后续扩展至其他作物行检测场景。
局限与展望
当前研究未涉及多作物兼容性测试,未来可探索小麦、水稻等作物的通用导航框架。此外,极端天气(如浓雾)下的视觉退化问题需结合多传感器融合进一步优化。