本研究由Danjie Li、Zhanhang Wei等来自暨南大学光电工程系、广东省光纤传感与通信重点实验室等机构的学者团队合作完成,发表于期刊《Photonics》2022年9月刊。论文标题为《Deep Learning-Based Robust Visible Light Positioning for High-Speed Vehicles》,探讨了基于深度学习的可见光定位(Visible Light Positioning, VLP)技术在高速度运动场景下的鲁棒性解决方案。
可见光定位(VLP)是一种结合照明与高精度定位的技术,适用于室内导航、隧道等场景。传统基于图像传感器(IS-based VLP)的系统在高速移动车辆中存在两大瓶颈:
1. 运动模糊(Motion Blur):车辆高速移动导致图像传感器捕获的LED条纹模糊;
2. 扩散模糊(Diffusion Blur):由快速对焦延迟或烟雾环境引起。
传统解码算法(如Zbar)在模糊图像下的解码成功率急剧下降,导致定位失败和延迟。因此,本研究提出一种基于深度学习(DL)的鲁棒VLP系统,旨在提升高速场景下的解码成功率和实时性。
系统分为两部分:
- 发射端:VLP-LED灯通过开关键控(OOK)调制发送唯一标识符(UID),利用CMOS传感器的滚动快门效应在图像中形成明暗条纹。
- 接收端:搭载CMOS相机的移动终端通过轻量级ROI检测算法提取条纹区域,再由提出的BN-CNN模型解码UID。
提出一种8层批归一化卷积神经网络(BN-CNN)模型,关键创新包括:
- 批归一化层(Batch Normalization):加速训练并提升模型对模糊图像的泛化能力;
- Dropout层:随机丢弃50%神经元以防止过拟合;
- Softmax分类器:输出UID的概率分布,损失函数采用交叉熵。
模型结构如下:
- 输入层:800×800像素的条纹图像;
- 卷积层:Conv1(32个3×3卷积核)和Conv2(64个3×3卷积核),每层后接批归一化、ReLU激活和最大池化;
- 全连接层:FC1(512节点)和FC2(输出N个UID分类结果)。
提出一种变步长回溯搜索算法,显著降低计算延迟:
- 初始步长(la=9像素)快速定位亮条纹区域;
- 精细步长(lb=1像素)精确确定边界,理论速度提升9倍。
论文开源了模拟模糊图像的MATLAB代码,为后续研究提供了可复现的基准工具。此外,作者指出未来可探索多LED协同定位以进一步提升系统精度。
(注:全文约2000字,符合要求)