分享自:

工业动态环境中的高分辨率可见光定位:基于PSO算法的鲁棒性方法

期刊:2022 international conference on indoor positioning and indoor navigation (ipin)

这篇文档属于类型a,是一篇关于工业动态环境中高分辨率可见光定位技术的原创性研究论文。以下是针对该研究的学术报告:


工业动态环境中的高分辨率可见光定位:基于PSO算法的鲁棒性方法

作者及机构
本研究的核心作者包括Hongxiu Zhao、Wafa Njima、Xun Zhang(均来自法国巴黎高等电子学院ISEP)以及Faouzi Bader(阿联酋阿布扎比技术创新研究所)。论文发表于2022年9月5日至7日在北京举办的IEEE国际室内定位与导航会议(IPIN),并收录于会议论文集。


学术背景
研究领域为室内可见光定位(Visible-Light Localization, VLL),属于无线通信与物联网(IoT)的交叉学科。随着工业4.0的推进,大量设备需实时采集数据,但动态环境(如设备移动、反射条件变化)会导致传统定位方法(如基于接收信号强度RSS的三角测量法)性能下降。现有研究多聚焦静态环境,而动态环境中非视距信号(NLOS)的干扰成为主要挑战。本研究旨在提出一种结合粒子群优化(PSO)算法与神经网络(NN)的混合方法,以提升动态环境下的定位精度与鲁棒性。


研究流程与方法
1. 问题建模与仿真环境搭建
- 模拟一个5m×5m×3m的工业房间,天花板上部署4个LED发射器,地面分布441个接收点(高度0.85m)。
- 动态环境通过随机反射系数(ρ=0.3~0.8)模拟墙壁反射条件变化,区分视距(LOS)与非视距(NLOS)信道。LOS信道采用Lambertian模型,NLOS信道通过划分墙面反射点建模单次反射路径(公式4)。

  1. PSO算法优化

    • 输入:接收点的RSS数据(含LOS与NLOS信号)。
    • 流程:初始化1000个粒子,通过最小化损失函数(公式6)迭代更新粒子位置,避免直接测距以减少NLOS干扰。
    • 创新点:PSO直接利用RSS数据而非距离估计,降低NLOS信号对定位的影响。
  2. 神经网络增强

    • 模型结构:单隐藏层(10神经元),输入为PSO初步定位结果与RSS数据,输出为优化后的坐标。
    • 训练:离线阶段使用441个点的数据(70%训练,15%验证/测试),激活函数为Sigmoid,学习率1.19e-5。
    • 在线应用:实时将PSO结果输入训练好的NN模型,输出高精度定位。
  3. 性能评估

    • 指标:累积分布函数(CDF)、定位误差(CDF=80%时的误差值)、覆盖率(误差<0.1m的点比例)。
    • 对比实验:与传统PSO和最小二乘法(LSM)比较,测试不同ρ值(0~0.9)下的鲁棒性。

主要结果
1. 定位精度
- 在ρ=0.4时,PSO+NN的定位误差为0.07m(传统PSO为0.12m);ρ=0.6时,误差分别为0.09m与0.18m(图6)。
- 当ρ∈[0.3,0.8],PSO+NN的误差波动更小(0.07~0.13m),而传统PSO误差范围达0.07~0.24m(图7a)。

  1. 覆盖率提升

    • 在ρ=0.9的极端环境下,PSO+NN的覆盖率是传统PSO的3倍(图7b),且始终维持50%以上的高覆盖率。
  2. 抗干扰性

    • NN有效削弱了NLOS信号的影响,尤其在反射系数较高时(ρ>0.3),定位稳定性显著优于纯PSO算法。

结论与价值
1. 科学价值
- 提出首个结合PSO与NN的动态可见光定位框架,解决了NLOS信号导致的定位漂移问题。
- 通过离线训练与在线优化的分离设计,实现了复杂环境下的实时高精度定位。

  1. 应用价值
    • 适用于工业4.0中设备密集、环境多变的场景(如智能仓储、机器人导航),定位误差达厘米级。
    • 无需额外硬件或数据库更新,降低了部署成本。

研究亮点
1. 方法创新:首次将PSO的全局优化能力与NN的非线性拟合特性结合,提升动态环境适应性。
2. 性能突破:在ρ=0.9时仍保持0.1m误差覆盖率,较传统方法提升200%。
3. 工程友好性:仅需单隐藏层NN,计算复杂度低,适合边缘设备部署。


其他价值
- 开源仿真参数(如LED功率12W、接收面积1e-4m²)为后续研究提供基准。
- 反射点分割模型(图2)可扩展至多反射路径分析,未来可进一步优化高反射场景(如金属墙面)。

(注:专业术语如PSO=粒子群优化、NN=神经网络、NLOS=非视距信号在首次出现时标注英文原词)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com