分享自:

基于深度神经网络的铁路轨道实时障碍物检测

期刊:Procedia Computer ScienceDOI:10.1016/j.procs.2022.12.031

类型a

主要作者与研究机构
该研究的主要作者包括Fahim Ur Rahman、Md. Tanvir Ahmed、Md. Mehedi Hasan和Nusrat Jahan,他们均来自孟加拉国达卡的Daffodil International University计算机科学与工程系(CSE)。该研究发表于2022年的《Procedia Computer Science》期刊上。

学术背景
本研究属于铁路安全与智能监控领域。随着对快速运输需求的增加,铁路网络在全国范围内迅速扩展。然而,由于缺乏有效的监控手段,铁路轨道上的障碍物(如人类、动物或其他车辆)经常导致列车碰撞事故的发生。传统的人工监控方式不仅需要大量的人力资源,还增加了维护成本。为减少人为干预,近年来深度学习技术被广泛应用于铁路轨道监控的研究中。尽管如此,现有的方法在不同环境和场景下的表现仍存在不足。因此,本研究旨在开发一种基于深度学习的实时铁路障碍物检测系统,以提高检测精度并降低资源消耗。

研究流程
本研究主要包括以下几个步骤:数据收集、数据预处理与增强、模型训练与评估以及结果分析。

  1. 数据收集
    研究团队访问了孟加拉国达卡的多条铁路轨道,使用具有108百万像素主摄像头的移动设备拍摄了大量图片。这些图片涵盖了空轨道、轨道内有人或动物等多种场景。所有图片被分为“空轨道”和“障碍物”两类,并存储在本地及云端(Google Drive)中。

  2. 数据预处理与增强
    原始数据集中包含许多模糊、过曝或不必要的图片,这些图片可能会干扰模型训练。研究团队通过以下步骤对数据进行了清理和预处理:移除低质量图片;将高分辨率图片(1080x2400像素)重新缩放至448x448像素;将像素值从(0, 255)范围归一化到(0, 1)范围。此外,为了扩大数据集规模,研究团队采用了数据增强技术,包括旋转(-15°至+15°)、剪切(范围0.2)、缩放(范围0.2)、水平和垂直翻转、亮度调整(范围0.5至1.5)等操作。

  3. 模型训练与评估
    研究团队选择了五种深度学习模型进行实验:YOLOv5、ResNet50、VGG16、VGG19和MobileNetV2。所有模型均通过迁移学习(Transfer Learning)的方式进行训练,以利用预训练权重并缩短训练时间。训练过程中,团队使用了自定义数据集,并对每个模型的训练准确率、验证准确率、精确率(Precision)和总体准确率进行了评估。

  4. 数据分析
    研究团队通过混淆矩阵(Confusion Matrix)和准确率曲线(Accuracy Curve)对模型性能进行了详细分析。混淆矩阵展示了模型在测试数据集上的预测结果,包括真阳性(True Positives)、真阴性(True Negatives)、假阳性(False Positives)和假阴性(False Negatives)。准确率曲线则反映了模型在不同训练轮次(Epochs)中的表现。

主要结果
实验结果显示,MobileNetV2在所有测试模型中表现最佳,其验证准确率达到97.81%,总体准确率为97.00%。相比之下,YOLOv5的表现最差,验证准确率仅为75.01%。ResNet50、VGG16和VGG19的验证准确率分别为93.43%、95.73%和94.46%。此外,MobileNetV2在资源消耗方面也表现出色,能够在低配置设备上高效运行。混淆矩阵显示,MobileNetV2在154张空轨道图片中正确预测了150张,在165张障碍物图片中正确预测了158张。

结论与意义
本研究提出了一种基于MobileNetV2的铁路障碍物检测系统,能够以97.00%的准确率识别轨道上的障碍物。该系统的科学价值在于其高效的资源利用率和高精度的检测能力,而应用价值则体现在其能够显著提高铁路安全性,减少列车与障碍物碰撞的风险。此外,该系统还可以与其他手动清除障碍物的操作相结合,进一步提升整体效果。

研究亮点
1. 提出了一个基于MobileNetV2的高效铁路障碍物检测模型,验证准确率达到97.81%,总体准确率为97.00%。
2. 数据增强技术的应用显著提高了模型的泛化能力。
3. MobileNetV2在资源消耗和检测速度方面表现出色,适合部署在低配置设备上。

其他有价值内容
研究团队指出,当前的数据集仅包含晴天条件下的图片,缺乏恶劣天气条件下的样本。这可能导致模型在实际应用中对恶劣天气场景的检测能力下降。未来的研究方向包括扩充数据集以涵盖更多天气条件,并探索无人机拍摄的轨道图片以提供更多视角。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com