分享自:

基于条件生成式对抗网络的道路提取方法

期刊:武 汉 大 学 学 报·信 息 科 学 版DOI:10.13203/j.whugis20190159

本文档属于类型a,即报告了一项原创研究。以下是针对该研究的学术报告:

作者及研究机构
本文的主要作者为陆川伟、孙群、赵云鹏、孙士杰、马京振、程绵绵和李元復,他们均来自信息工程大学。该研究于2021年6月发表在《武汉大学学报·信息科学版》(Geomatics and Information Science of Wuhan University)第46卷第6期。

学术背景
基于车辆轨迹数据的道路信息提取是地理信息领域的热点与难点之一。传统方法存在对轨迹数据源要求高、算法复杂、模型参数适应性差等问题。为此,本文提出了一种基于条件生成式对抗网络(Conditional Generative Adversarial Networks, CGAN)的轨迹地图向道路地图转换的方法,称为Trajectory-to-Road Translation with Conditional Generative Adversarial Nets(TR-CGAN)。研究旨在通过深度学习技术优化道路提取模型,解决传统方法的局限性,并提高道路提取的精确性和适应性。

研究流程
研究流程主要包括以下几个步骤:
1. 数据预处理
- 将车辆轨迹数据和道路数据从WGS84地理坐标系转换为CGCS2000投影坐标系。
- 进行矢栅转换,将矢量数据转换为栅格图像,并确定像元尺寸。
- 对栅格图像进行分割,生成轨迹地图和道路地图,并建立轨迹-道路图像对。
- 通过镜像、旋转等数据增强(Data Augmentation, DA)操作,将样本数据量扩大7倍。

  1. TR-CGAN模型构建

    • 采用U-Net模型作为生成器,PathGAN模型作为判别器。
    • 生成器通过下采样和上采样过程生成道路地图,判别器通过卷积计算判断生成图像的真伪。
    • 目标函数结合了CGAN的博弈过程和L2范数损失函数,以优化模型训练。
  2. 模型训练

    • 选取郑州市三环内区域作为实验区域,使用出租车轨迹数据和OpenStreetMap(OSM)道路数据作为训练样本。
    • 将样本区域划分为168张轨迹栅格图和168张道路栅格图,并通过数据增强生成104对轨迹-道路图像对。
    • 将图像对按7:3的比例分为训练集和测试集,分别包含914张和390张图像。
    • 通过控制变量法和枚举法优化模型参数,包括U-Net模型深度、判别器感受野尺寸和目标函数。
  3. 实验结果与分析

    • 在郑州市三环内区域进行道路提取实验,并将TR-CGAN模型提取的道路与OSM道路数据和栅格化方法提取的道路进行对比。
    • 通过精确率(Precision, P)和召回率(Recall, R)评价提取效果。实验结果表明,TR-CGAN模型在新增道路提取和轨迹稀疏区域道路提取方面表现优异,精确率和召回率均高于传统栅格化方法。

主要结果
1. 模型参数优化
- U-Net模型深度为6层时,道路提取效果最佳,模型训练效率和损失值均达到最优。
- 判别器感受野尺寸为70×70时,提取道路的细节和完整性最佳。
- 采用L2范数作为目标函数时,模型在轨迹稀疏区域的提取效果最优。

  1. 道路提取效果
    • TR-CGAN模型能够有效发现新增道路,如城中村建设区域和地铁施工改道路线。
    • 在轨迹稀疏区域,TR-CGAN模型表现出较强的适应性,能够提取出较为完整的道路网络,而传统栅格化方法只能提取出零散的短路段。
    • 精确率和召回率分别为0.88和0.62,显著高于栅格化方法的0.61和0.60。

结论
本文提出的TR-CGAN模型通过深度学习技术解决了传统道路提取方法对数据源要求高、算法复杂、模型参数适应性差等问题。该方法能够有效发现新增道路,并在轨迹稀疏区域表现出较强的适应性,为依托车辆轨迹数据更新道路网络提供了重要技术支持。未来研究可以进一步优化模型,以提取更多类型的道路信息,如环状道路或车道级道路。

研究亮点
1. 创新性方法:首次将条件生成式对抗网络(CGAN)应用于车辆轨迹数据的道路提取,提出了TR-CGAN模型。
2. 参数优化:通过控制变量法和枚举法优化模型参数,显著提高了模型的道路提取效果。
3. 实际应用价值:该方法在新增道路提取和轨迹稀疏区域道路提取方面表现出色,具有较高的实际应用价值。

其他有价值内容
本文还详细探讨了矢量化方法和栅格化方法的优缺点,为后续研究提供了理论参考。此外,研究中对数据增强技术的应用也为处理大规模轨迹数据提供了新思路。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com