本研究的通讯作者为华南理工大学自动化科学与工程学院的Shangsheng Wen(邮箱:shshwen@scut.edu.cn),合作作者包括Linyi Huang、Zihong Yan、Hongzhan Song、Shuomiao Su和Weipeng Guan。研究团队来自华南理工大学材料科学与工程学院和自动化科学与工程学院。论文《Single LED positioning scheme based on angle sensors in robotics》于2021年7月20日发表在光学领域知名期刊《Applied Optics》(Vol. 60, No. 21)。
科学领域:本研究属于机器人室内定位与可见光定位(Visible Light Positioning, VLP)交叉领域,涉及计算机视觉、惯性传感器融合和嵌入式系统开发。
研究动机:传统VLP系统需同时捕获多个LED信号以实现厘米级定位,但实际环境中LED数量不足(如遮挡、信号切换)会导致系统失效。现有解决方案或依赖复杂硬件(如激光雷达),或需LED附加标记(如AprilTag),限制了实用性。
研究目标:提出一种基于角度传感器辅助的单LED VLP系统(SLAS-VLP),通过视觉-惯性数据同步方法,将所需LED数量从多个降至一个,同时保持高精度(平均2.47 cm)、实时性(计算时间0.184 s)和抗干扰能力。
SLAS-VLP系统分为三个模块:
- CMOS图像传感器模块:通过滚动快门(rolling shutter)效应捕获LED的OOK(On-Off Keying)调制信号,提取LED感兴趣区域(ROI)。
- 角度传感器模块:结合IMU(惯性测量单元)、磁力计和里程计计算机器人偏航角(yaw angle),采用AHRS(Attitude and Heading Reference Systems)算法校正IMU漂移误差。
- 单LED定位算法:通过坐标变换(图5)将图像坐标系转换为世界坐标系,利用相似三角形原理(公式1-3)计算垂直距离,结合偏航角推导水平坐标(公式6-8)。
提出两阶段LED-ROI提取算法(图2):
- 初始化阶段:全图像搜索LED区域(仅触发于目标丢失时)。
- 跟踪阶段:局部ROI检测,结合分级阈值方案解码LED-ID,减少计算量。
硬件平台(图7):
- 发射端:3个定制LED(调制频率5 kHz),覆盖6.8 m × 2.7 m区域。
- 接收端:TurtleBot3机器人搭载MindVision UB-300工业相机(分辨率2048×1536)和树莓派3B。
实验内容:
- 静态定位测试:65个测试点(含LED视场边缘位置),每组测量5次。结果显示90%误差≤3.66 cm,最大误差6.75 cm(图14-15)。
- 动态轨迹测试:在无LED区域通过里程计补偿定位,轨迹预测与真实运动吻合(图16-17)。
科学价值:
- 首次实现单LED条件下的稳健VLP,突破传统多LED限制,提出可扩展的传感器融合框架。
- 开发的轻量级图像处理算法适用于低成本嵌入式平台(树莓派3B)。
应用价值:
- 适用于LED稀疏的复杂室内环境(如仓库、医院),降低部署成本。
- 为机器人导航、物流自动化提供高精度定位解决方案。
(注:专业术语如OOK、AHRS等首次出现时标注英文,后续使用中文表述。)