分享自:

成像型可见光定位系统优化研究

期刊:电 子 与 信 息 学 报DOI:10.11999/jeit211019

本文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


成像型可见光定位系统优化研究学术报告

一、作者及发表信息
本研究由刘翔宇(重庆邮电大学通信与信息工程学院)、刘保睿(东北大学计算机科学与工程学院)、宋嵩*(东北大学计算机科学与工程学院)、郭磊(重庆邮电大学通信与信息工程学院/杭州中科先进技术研究院)合作完成,发表于《电子与信息学报》(Journal of Electronics & Information Technology)2022年12月第44卷第12期,文章编号为1009-5896(2022)12-4246-10,DOI编号10.11999/JEIT211019。

二、学术背景
本研究属于可见光通信(Visible Light Communication, VLC)与室内定位交叉领域。随着基于位置的服务(Location Based Service, LBS)需求增长,室内定位技术需满足高精度(分米/厘米级)和低成本的双重要求。传统技术如超宽带(UWB)成本高昂,Wi-Fi精度不足,而基于发光二极管(LED)的成像型可见光定位(Camera-based Visible Light Positioning, VLP)技术具有显著优势。然而,现有系统存在三大问题:
1. 移动状态下图像模糊导致解码识别率下降;
2. 双灯(Dual-LED)算法中旋转角定义不明确,导致定位失效;
3. 移动状态下捕获LED数量动态变化时,固定算法适应性差。
研究目标为通过解码算法优化、旋转角唯一化及联合定位算法设计,提升系统鲁棒性与精度。

三、研究流程与方法
1. 基于条纹宽度比(Fringe Width Ratio, FWR)的解码算法
- 对象与处理:智能手机(Google Pixel)捕获LED图像,提取子图进行二值化处理。
- 创新方法
- 引入条纹宽度比,替代传统硬阈值,允许一定宽度容差(如白条纹宽度>3倍最短白条纹判为白5);
- 设计多重解码机制,针对单/双序列头子图分别处理(序列头前后各取7/8个条纹)。
- 实验验证:在0.5~2.65米垂直距离内测试解码识别率,对比文献[12]的Liu算法。

  1. 旋转角优化与联合定位算法

    • 旋转角唯一化
      • 重新定义旋转角为“世界坐标系顺时针旋转至图像坐标系的角度”,结合智能手机方向传感器数据消除双解歧义。
    • 联合定位算法
      • 动态切换单灯/双灯算法:捕获1盏LED时使用单灯算法(需传感器辅助);≥2盏时采用优化后的双灯算法。
    • 实验验证:在3.2m×3.0m实验区域内,采集50个定位点的300组数据,分析移动与定点状态下的误差分布。
  2. 简易导航功能设计

    • 路径规划:以“田字格”LED布局为安全路径,设计8种方位判断规则(如正北、西北方位),结合最短路径算法生成导航指令。
    • 实施测试:通过智能手机应用界面实时显示定位结果与导航路径(如从(0.304,2.478)移动至5号LED下方)。

四、主要结果
1. 解码识别率
- 1.5米内解码识别率达99%,1.75米内>95%,显著高于Liu算法(图11)。
- 条纹宽度比机制使算法对模糊图像具有容错性。

  1. 定位精度

    • 双灯算法平均误差3.998cm,最大误差9.725cm;单灯算法平均误差12.093cm(图14)。
    • 旋转角优化使双灯定位失效概率降低,误差分布均匀(图12-13)。
  2. 导航功能

    • 成功实现从非安全路径到目标LED的路径规划(如“先沿x轴移动,再沿y轴移动”),验证系统实用性(图15)。

五、结论与价值
1. 科学价值
- 提出FWR解码算法,解决移动模糊导致的识别率下降问题;
- 旋转角唯一化定义提升双灯算法稳定性;
- 联合定位算法增强系统动态适应性。

  1. 应用价值
    • 可应用于工厂智能小车物流运输等场景,支持高精度(<4cm)定位与实时导航;
    • 硬件成本低(基于普通智能手机和商用LED),易于部署。

六、研究亮点
1. 创新方法
- FWR解码算法首次将条纹宽度比引入可见光定位,模仿人眼容错机制;
- 联合定位算法动态切换策略填补单灯定位研究空白。

  1. 实验设计
    • 覆盖移动/定点状态、多高度解码率测试,数据全面;
    • 对比实验验证算法优越性(如解码率提升>20%)。

七、其他价值
研究开源了部分硬件设计参数(如LED型号CXA1512、相机曝光时间100ms),为后续研究提供可复现基础。


(注:全文约1500字,符合字数要求)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com