分享自:

基于k-means算法的温室移动机器人导航路径识别

期刊:农业工程学报DOI:10.3969/j.issn.1002-6819.2014.07.004

基于k-means算法的温室移动机器人导航路径识别的学术报告

一、作者与发表信息
本研究由江苏大学电气信息工程学院的高国琴和李明合作完成,论文《基于k-means算法的温室移动机器人导航路径识别》发表于《农业工程学报》(Transactions of the Chinese Society of Agricultural Engineering)2014年第30卷第7期,页码25-33页,DOI编号10.3969/j.issn.1002-6819.2014.07.004。

二、学术背景
本研究属于农业机器人及机器视觉交叉领域,旨在解决温室移动机器人在非结构化环境中导航路径识别的两大核心问题:光照干扰导致的鲁棒性不足复杂背景下的实时性差。传统方法(如RGB颜色空间阈值分割、Hough变换直线拟合)在温室环境中易受光照不均、阴影噪声及作物遮挡影响,导致路径分割模糊、计算量大。为此,作者提出一种基于HSI颜色空间色调分量(Hue, H)和k-means聚类分割的改进算法,目标是通过优化图像处理流程,提升路径识别的准确性与效率。

三、研究流程与方法
1. 图像采集与预处理
- 硬件平台:采用Logitech C600摄像头(分辨率640×480像素)安装于距地面50 cm的移动机器人上,采集温室番茄垄间道路图像。
- 颜色空间转换:将RGB图像转换为HSI颜色空间,分离色调(H)、饱和度(S)、亮度(I)三个分量。选取与光照无关的H分量进行后续处理,以抑制光照变化干扰。
- 去噪处理:对H分量采用5×5像素窗口的中值滤波(Median Filter),消除孤立噪声点(图3)。

  1. 图像分割优化

    • k-means聚类算法:针对温室图像包含道路、地膜、作物三类信息的特点,设定聚类数k=3,通过欧氏距离(Euclidean Distance)和误差平方和准则函数(式5-6)迭代优化聚类中心。与传统阈值分割(如Otsu法)相比,k-means能清晰分离道路与背景(图5b),边界信息更突出。
    • 形态学处理:对聚类结果进行腐蚀操作(Erosion),去除冗余噪声(如落叶、土壤斑点),生成二值化道路图像(图6-7)。
  2. 路径提取与参数计算

    • 边缘检测:采用Canny算子提取道路边缘离散点(图8),逐行扫描获取坐标均值以生成导航离散点(图9)。
    • Hough变换拟合:对离散点进行直线拟合,获取导航路径(图10)。
    • 控制参数转换:通过小孔成像模型将图像坐标系的路径偏差(位移偏差e′d、角度偏差e′θ)转换为世界坐标系参数(式7-8),用于机器人运动控制。
  3. 实验验证

    • 数据集:在60,000-80,000 lx(强光)、10,000-30,000 lx(中光)、2,000-4,000 lx(弱光)三种光照条件下各采集20幅图像,共60幅。
    • 对比方法:与传统RGB方法(灰度化+Otsu分割+Hough变换)对比,评估路径提取率、处理时耗及控制参数误差。

四、主要结果
1. 抗光照性能:本文方法在强光至弱光条件下的路径提取率均达95%(RGB方法在强光下仅60%),显著降低光照影响(表1)。
2. 实时性提升:单幅图像平均处理耗时146 ms,较RGB方法(312 ms)降低53.26%,满足温室作业实时性需求。
3. 控制精度:位移偏差最大误差6.2 cm(均方根误差4.1 cm),角度偏差最大误差2.8°(均方根误差1.7°),符合导航精度要求(图12-13)。

五、结论与价值
1. 科学价值
- 提出HSI颜色空间H分量与k-means聚类的协同优化策略,为复杂光照环境下的机器视觉导航提供了新思路。
- 通过形态学预处理减少Hough变换计算量,为实时性要求高的图像处理任务提供方法论参考。
2. 应用价值
- 可直接应用于温室喷药、采摘等农业机器人,提升自主导航的稳定性和效率。
- 算法开源(基于OpenCV实现),便于工业界移植与二次开发。

六、研究亮点
1. 创新方法:首次将k-means聚类引入温室路径分割,解决阈值法在复杂背景下的局限性。
2. 工程适配性:通过腐蚀操作压缩数据量,使Hough变换在资源受限的嵌入式系统(如ATxmega64A3单片机)中高效运行。
3. 跨场景鲁棒性:试验涵盖不同光照与遮挡条件,验证了算法的普适性。

七、其他贡献
论文对比分析了RGB、CMY、HSI颜色空间的适用性(1.2节),为农业图像处理的颜色模型选择提供了理论依据。此外,作者公开了摄像头标定参数(k1、k2)与坐标转换公式(式7-8),增强了研究可复现性。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com