分享自:

基于无人机视频的交叉口全景感知技术研究

期刊:智能城市DOI:10.19301/j.cnki.zncs.2025.01.006

本文介绍的是张韦华(南京云析科技有限公司)、吕辰和孙琳(江苏中路交通发展有限公司)在《智能城市》期刊2025年第1期发表的研究论文《基于无人机视频的交叉口全景感知技术研究》。该研究属于智能交通领域,聚焦于利用无人机航拍视频和深度学习算法实现城市交叉口的全景交通感知,为智能交通管控提供数据支持。

学术背景
城市交叉口是道路交通的瓶颈节点,其运行状态直接影响整体交通效率。传统交通监测手段(如固定摄像头、地磁线圈)存在覆盖范围有限、安装维护成本高等问题。无人机因其灵活、低成本的特性,成为交通监测的新兴工具。然而,如何从无人机视频中高效提取交通要素(如车辆、行人)的轨迹信息,并实现精准的交通状态评价,仍是技术难点。该研究旨在结合YOLOv5目标检测算法和Deep SORT(Simple Online and Realtime Tracking with a Deep Association Metric)跟踪算法,构建一套完整的交叉口全景感知技术框架。

研究流程与方法
1. 数据采集与预处理
研究选取珠海市梅华西路与红山路的两个交叉口作为实验场景,通过无人机在早高峰、平峰和晚高峰时段采集6段交通流视频。视频分辨率需适配算法输入要求(608×608像素),并采用Mosaic数据增强技术提升模型泛化能力。

  1. 交通目标检测

    • 算法选择:采用YOLOv5s模型(YOLO系列中计算效率最高的版本)进行车辆检测。其网络结构分为输入端(自适应图像缩放)、Backbone(CSPDarknet53和Focus结构结合的特征提取层)、Neck(特征融合层)和Prediction(损失函数采用CIoU_Loss)。
    • 优化措施:通过自适应锚框计算减少目标尺寸差异的影响,并利用DIoU_NMS(Distance-IoU Non-Maximum Suppression)抑制重叠检测框的误检。
  2. 交通目标跟踪

    • 运动模型:基于Deep SORT算法,使用8维状态空间(中心坐标、宽高比、高度及其变化率)描述目标运动状态,通过卡尔曼滤波预测轨迹。
    • 关联策略
      • 运动信息关联:计算马氏距离(公式1)衡量检测框与预测轨迹的空间一致性。
      • 外观信息关联:提取目标外观特征(ReID特征向量),通过余弦距离(公式2)匹配相似目标。
      • 融合度量:线性加权马氏距离与余弦距离(公式3),超参数λ控制权重,提升遮挡场景下的跟踪鲁棒性。
  3. 轨迹分析与验证

    • 评价指标:采用精确度(Precision)和召回率(Recall)量化模型性能。实验结果显示,车辆检测与跟踪的精确度和召回率均达99.8%(表2)。
    • 轨迹应用:提取车辆全域轨迹后,可进一步计算交叉口通行效率、冲突点分布等参数,支撑交通管控决策。

主要结果与结论
1. 算法性能:在光照良好、无遮挡条件下,YOLOv5s+Deep SORT的组合实现了99.8%的检测与跟踪精度,显著优于传统方法(如帧差法、光流法)。
2. 技术优势
- 实时性:YOLOv5的单阶段检测架构避免了R-CNN系列算法的区域提议耗时问题。
- 适应性:Deep SORT的融合度量策略有效缓解了多目标跟踪中的ID切换问题。
3. 应用价值:该技术可为交叉口信号配时优化、违章行为识别等提供全息数据,推动智能交通系统从“单点监测”向“全局感知”升级。

研究亮点
1. 方法创新:首次将YOLOv5与Deep SORT结合应用于无人机交通视频分析,提出融合运动与外观特征的轨迹关联策略。
2. 工程验证:在真实城市交叉口场景中验证了技术的可靠性,覆盖不同时段交通流特性。
3. 开源贡献:算法封装为可复用的类模块,便于后续研究扩展(如行人轨迹分析)。

其他价值
研究指出,未来可结合边缘计算设备部署轻量化模型,进一步降低计算资源消耗。此外,轨迹数据与V2X(车路协同)技术的结合,有望实现更动态的交通管控。

(注:专业术语如Deep SORT、CIoU_Loss等首次出现时保留英文原名,后文使用中文译名。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com