分享自:

基于卷积神经网络的多可见光通信单元移动识别与定位

期刊:optics lettersDOI:10.1364/ol.503007

基于卷积神经网络的多可见光通信单元移动识别与定位研究

作者及机构
该研究由Xiaoxiao Du(第一作者)、Yanyu Zhang、Chao Wang、Penghui Fan(通讯作者)及Yijun Zhu合作完成,作者单位包括信息工程大学(郑州)、中国航天电子技术研究院(北京)及北京理工大学。研究成果发表于Optics Letters期刊2023年12月15日第48卷第24期,标题为《Mobile recognition and positioning for multiple visible light communication cells using a convolutional neural network》。


学术背景
工业物联网(IIoT)环境下,机器人、自动导引车(AGV)等生产设备需同时实现通信与移动定位。传统可见光通信(VLC, Visible Light Communication)技术虽具备高速、高可靠、电磁兼容等优势,但多光源协同定位存在复杂度高、误差率大等问题。本研究提出一种基于LED图像特征的多光单元识别与定位框架,通过卷积神经网络(CNN)实现光单元间区分及单元内亚区域精确定位,旨在为IIoT提供高精度位置感知服务。


研究流程

  1. 数据采集与预处理

    • 研究对象:实验使用两盏OOK(On-Off Keying)调制的LED作为发射源,智能手机搭载CMOS图像传感器作为接收端,采集近5000张LED图像(4500张用于训练与验证,500张用于测试)。
    • 图像特征:CMOS的滚动快门(rolling shutter)效应使LED开关状态在图像上形成明暗条纹(如图2所示),这些条纹的差异成为光单元识别的关键特征。
    • 区域划分:将每盏LED覆盖的80×80 cm区域细分为2区(A0/A1)、4区(B0-B3)和8区(C0-C7),以评估不同分辨率下的定位精度(图3)。
  2. CNN模型设计

    • 框架结构(图4):采用多标签分类模型,输入LED图像输出两个标签——光单元类别(LED1/LED2)及亚区域位置。
    • 特征提取模块:包含卷积层、ReLU激活函数、批归一化(Batch Normalization)和最大池化层。针对不同区域划分复杂度,模块数量动态调整(2/4区用3模块,8区用5模块)。
    • 训练优化:通过交叉熵损失函数反向传播更新权重,使用NVIDIA GeForce RTX2060 GPU加速训练。
  3. 实验验证

    • 对比算法:与传统KNN(K近邻)和SVM(支持向量机)相比,CNN在LED识别准确率(>99%)和亚区域定位(2区99.6%、4区97.7%、8区89.2%)上显著优于前者(表2)。
    • 时间成本:CNN单图预测耗时0.112秒,虽高于KNN(14×10⁻⁴ s)和SVM(4.66×10⁻⁴ s),但精度提升显著。

主要结果与逻辑关系
1. 光单元识别:CNN对两盏LED的区分准确率超99%(图6),证明明暗条纹特征可有效区分多光源。
2. 亚区域定位:2区与4区平均准确率接近100%,而8区因类别增多降至约90%(图8-9),符合分类任务中类别数与精度的负相关规律。
3. 算法对比:CNN的像素级特征提取能力远超KNN/SVM基于RGB和灰度值的手工特征(图7),验证了深度学习在VLC定位中的优势。


结论与价值
1. 科学价值:首次将多光单元识别与定位转化为多标签分类问题,避免了传统方法需多灯联合或附加传感器的局限性。
2. 应用价值:为IIoT提供厘米级定位服务(分辨率2.5 cm),且兼容智能手机等移动设备,具有工业化潜力。
3. 未来方向:可扩展至多灯场景,结合通信技术实现“感知-通信一体化”。


研究亮点
1. 方法创新:提出基于CNN的多标签分类框架,同步解决光单元识别与亚区域定位问题。
2. 性能突破:在单LED定位中,区域识别准确率高达100%,远超传统算法。
3. 工程兼容性:利用普及的CMOS传感器,降低了系统部署成本。


其他价值
实验数据与代码可向作者申请获取,研究受国家自然科学基金(62271505)和国家重点研发计划(2022YFB28022804)支持,无利益冲突声明。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com