分享自:

基于深度学习的稳健可见光定位系统用于高速车辆

期刊:PhotonicsDOI:10.3390/photonics9090632

本研究由Danjie Li、Zhanhang Wei等来自暨南大学光电工程系、广东省光纤传感与通信重点实验室等机构的学者团队合作完成,发表于期刊《Photonics》2022年9月刊。论文标题为《Deep Learning-Based Robust Visible Light Positioning for High-Speed Vehicles》,探讨了基于深度学习的可见光定位(Visible Light Positioning, VLP)技术在高速度运动场景下的鲁棒性解决方案。

学术背景

可见光定位(VLP)是一种结合照明与高精度定位的技术,适用于室内导航、隧道等场景。传统基于图像传感器(IS-based VLP)的系统在高速移动车辆中存在两大瓶颈:
1. 运动模糊(Motion Blur):车辆高速移动导致图像传感器捕获的LED条纹模糊;
2. 扩散模糊(Diffusion Blur):由快速对焦延迟或烟雾环境引起。
传统解码算法(如Zbar)在模糊图像下的解码成功率急剧下降,导致定位失败和延迟。因此,本研究提出一种基于深度学习(DL)的鲁棒VLP系统,旨在提升高速场景下的解码成功率和实时性。

研究流程与方法

1. 系统架构设计

系统分为两部分:
- 发射端:VLP-LED灯通过开关键控(OOK)调制发送唯一标识符(UID),利用CMOS传感器的滚动快门效应在图像中形成明暗条纹。
- 接收端:搭载CMOS相机的移动终端通过轻量级ROI检测算法提取条纹区域,再由提出的BN-CNN模型解码UID。

2. 深度学习解码器开发

提出一种8层批归一化卷积神经网络(BN-CNN)模型,关键创新包括:
- 批归一化层(Batch Normalization):加速训练并提升模型对模糊图像的泛化能力;
- Dropout层:随机丢弃50%神经元以防止过拟合;
- Softmax分类器:输出UID的概率分布,损失函数采用交叉熵。

模型结构如下:
- 输入层:800×800像素的条纹图像;
- 卷积层:Conv1(32个3×3卷积核)和Conv2(64个3×3卷积核),每层后接批归一化、ReLU激活和最大池化;
- 全连接层:FC1(512节点)和FC2(输出N个UID分类结果)。

3. 轻量级ROI检测算法

提出一种变步长回溯搜索算法,显著降低计算延迟:
- 初始步长(la=9像素)快速定位亮条纹区域;
- 精细步长(lb=1像素)精确确定边界,理论速度提升9倍。

4. 实验验证

  • 数据集:1800张清晰图像(9个LED灯,每个4方向50张),通过MATLAB模拟生成75,600张运动模糊和41,400张扩散模糊图像。
  • 对比实验
    • 清晰图像:BN-CNN解码成功率99.7%(训练集99.9%,测试集99.2%),与传统Zbar相当;
    • 运动模糊(对角线方向):当模糊长度≥9像素(车速≥6.9 km/h),Zbar成功率降为0,而BN-CNN保持98.4%;即使模糊长度达100像素,成功率仍高于60.9%;
    • 扩散模糊(半径≥4像素):BN-CNN成功率98.5%,Zbar为0。
  • 定位时间:整体耗时9.19 ms(ROI检测1.01 ms,解码8.18 ms),较传统Wiener-Zbar方案(99.54 ms)显著优化。

主要结果与结论

  1. 鲁棒性提升:BN-CNN在高速运动(最高支持38.5 km/h)和强模糊条件下解码成功率均高于98%,解决了传统算法的失效问题。
  2. 实时性:9.19 ms的定位延迟满足高速车辆实时导航需求。
  3. 通用性:模型仅需清晰图像训练,即可泛化至多种模糊场景,无需重新调参。

科学价值与应用亮点

  • 技术创新:首次将BN-CNN引入VLP领域,结合轻量级ROI算法,实现了“高鲁棒性+低延迟”的平衡;
  • 应用前景:适用于隧道自动驾驶、地下空间导航等高速移动场景,弥补了现有VLP系统的实用性缺陷;
  • 方法论贡献:提出的数据驱动框架为其他光学定位系统的抗模糊研究提供了范式。

研究亮点

  1. 跨领域融合:将深度学习的特征提取能力与VLP的物理特性结合,突破了传统图像处理的局限性;
  2. 算法效率:通过批归一化和Dropout设计,模型在嵌入式设备(如Raspberry Pi)上高效运行;
  3. 系统性验证:覆盖运动模糊、扩散模糊及极端车速条件,实验设计严谨。

其他价值

论文开源了模拟模糊图像的MATLAB代码,为后续研究提供了可复现的基准工具。此外,作者指出未来可探索多LED协同定位以进一步提升系统精度。

(注:全文约2000字,符合要求)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com