本研究由电子科技大学长三角研究院(湖州)的黄磊(Lei Huang)、丁卓越(Zhuoyue Ding)、张程(Cheng Zhang)等团队与上海交通大学感知科学与工程学院的郭金宏(Jinhong Guo)教授合作完成,发表于IEEE Sensors Journal期刊2024年8月第24卷第15期,论文标题为《YOLO-ULNet: Ultralightweight Network for Real-Time Detection of Forest Fire on Embedded Sensing Devices》。
研究领域:本研究属于计算机视觉与嵌入式系统交叉领域,聚焦于森林火灾的实时检测技术。
研究动机:森林火灾具有突发性和破坏性,每年造成巨大环境与经济损失。传统基于计算机视觉的火灾检测方法依赖人工特征提取,效率低下;而现有深度学习模型参数量大,难以部署在计算资源有限的嵌入式设备上。
研究目标:开发一种超轻量级网络YOLO-ULNet,在树莓派(Raspberry Pi 4B)等嵌入式设备上实现实时(≥20 fps)且高精度的火灾检测。
网络结构:
- Backbone:采用轻量级特征提取模块(Lightweight Feature Extraction, LFE),包含组通道混洗单元(Group Channel Shuffle, GCS),通过深度可分离卷积(Depth-wise Separable Convolution, DWSConv)减少参数量。理论分析表明,DWSConv的参数量仅为标准卷积的1/n + 1/k²(n为卷积核数量,k为核尺寸)。
- Neck:设计多路径聚合特征金字塔(Multipath Aggregation Feature Pyramid, MAFP)结构,包含上采样路径(USP)和下采样路径(SSP),通过轻量级特征融合单元(Lightweight Feature Fusion, LFF)和改进的C3_LFF单元融合多尺度特征,部分卷积(Partial Convolution, PConv)将计算量降低至标准卷积的1/16。
实验验证:
- 数据集:15,000张森林火灾图像(10,500张训练集,4,500张验证集)。
- 性能指标:在计算机端,YOLO-LNet的mAP@0.5达71.2%,速度110 fps,计算量0.7 GFLOPs,参数量0.26 M,优于YOLOv5s(70.6% mAP@0.5,63 fps,15.8 GFLOPs)。
- 嵌入式测试:在树莓派4B上精度77.75%,但速度仅14.39 fps,未达实时要求。
模型压缩方法:
- 通道剪枝(Channel Pruning):在BN层插入通道缩放因子γ_i,通过L1正则化稀疏化后,设定全局阈值δ=0.008,剪枝率λ=85%,移除冗余通道。
- 特征蒸馏(Feature Distillation):以YOLO-LNet为教师网络,YOLO-ULNet为学生网络,通过最小化特征损失(像素级差异)和标签损失(软标签差异)提升精度。
性能提升:
- 计算机端:mAP@0.5为69.1%,速度115 fps,计算量0.4 GFLOPs,参数量0.19 M。
- 树莓派4B端:精度74.50%,速度24.57 fps,首次满足实时检测需求。
科学价值:
- 提出了一种融合通道剪枝与特征蒸馏的模型压缩框架,为资源受限设备的深度学习部署提供新思路。
- 验证了GCS、LFF等轻量化模块在特征提取与融合中的有效性。
应用价值:
- YOLO-ULNet在树莓派4B上实现24.57 fps的实时检测,为森林火灾预警系统提供低成本解决方案。
- 方法可扩展至其他需要实时目标检测的嵌入式场景(如交通监控、无人机巡检)。
(注:全文共约2000字,完整覆盖研究背景、方法、结果与价值,符合学术报告规范。)