分享自:

多模态组合地理定位方法MMGeo用于无人机

期刊:ICCV

在无人机视觉地理定位(Vision-based Geo-localization)领域,传统方法主要依赖于单一视图(通常是无人机视角图像)与预构建的卫星视图参考图库之间的跨视图检索。这类视觉地点识别(Visual Place Recognition, VPR)方法虽然取得了显著进展,但其性能在成像质量下降、环境纹理单一或存在视觉混淆的复杂场景中往往不稳定。近年来,多模态(Multimodal)学习通过融合图像、点云、深度、文本等不同模态的互补信息,在信息检索领域展现出更精确、更鲁棒的潜力。然而,将多模态方法应用于无人机地理定位面临独特挑战:现有的多模态地点识别范式通常要求查询端和数据库端具备完全相同的模态组合(如图像+点云 查询 图像+点云),这需要构建一个覆盖广泛地理区域且包含完整多模态数据的大型参考数据库,这在实践中成本高昂、难以实现。另一种基于跨模态检索(如文本→图像)的方法,虽然避免了构建多模态数据库,但由于模态间巨大的语义鸿沟,难以处理需要密集采样和细粒度匹配的地理定位任务,区分能力有限。因此,如何在避免构建庞大复杂多模态数据库的前提下,有效利用多模态信息的优势来提升无人机在未知复杂环境中的地理定位精度与鲁棒性,成为一个亟待解决的实际问题。

在此背景下,来自厦门大学人工智能研究院和航空航天学院的纪宇翔、何博勇、谈卓岳和吴辽妮(通讯作者)团队在计算机视觉顶级会议ICCV上发表了题为“mmgeo: multimodal compositional geo-localization for uavs”的研究论文。该研究提出了一个更实用的新任务设定:利用无人机视角的多模态组合查询(图像 + 点云/深度/文本),在一个纯图像的卫星视图参考地图数据库中进行地理定位。这巧妙地整合了多模态信息的优势,同时规避了对大规模多模态数据库的依赖。针对这一任务,作者提出了MMGeo(Multimodal Compositional Geo-localization)方法,这是一个通过统一框架学习将多模态表征组合推送到目标参考地图表征的模型。此外,为了验证方法并填补数据空白,他们首次将两个主流的视觉无人机地理定位数据集(GTA-UAV和UAV-VisLoc)扩展为多模态版本(GTA-UAV-MM和UAV-VisLoc-MM),为后续研究提供了宝贵资源。

MMGeo的核心工作流程

MMGeo的整体流程旨在学习一个共享的多模态组合表征空间,使得无人机多模态查询的组合表征能够与卫星视图单模态参考图像的表征准确匹配。其工作流程主要包含三个关键部分:多模态编码器、多模态组合器以及模态替代对齐策略。

1. 多模态编码与适配器微调 (Multimodal Encoders & Adapter Fine-tuning) 由于图像是查询和参考共享的基础模态,研究将视觉作为模型的主要模态。具体而言: * 图像编码器:采用基于旋转位置编码(RoPE)的Vision Transformer(ViT)架构,其权重从现有SOTA视觉地理定位方法Game4Loc初始化,以确保强大的基础视觉表征能力。该编码器的参数在训练过程中是完全可训练的。 * 点云编码器:借鉴Uni3D的工作,将ViT的补丁嵌入层替换为专门的点云分词器(Point Tokenizer),并使用EVA02-base模型进行预训练初始化,以处理无序点云数据。 * 深度编码器:将深度图沿通道维度复制三次以模拟RGB三通道,并将其视为标准图像,使用在ImageNet上预训练的ViT-base作为编码器。 * 文本编码器:采用广泛使用的OpenAI CLIP-ViT-base文本编码器,对文本描述进行固定长度(如77)的标记化处理。

考虑到可用于无人机地理定位训练的多模态数据规模远小于通用多模态对齐训练(如ImageBind)所需的数据量,为了保留各模态编码器强大的预训练表征能力并实现高效学习,作者对所有非图像编码器采用了 基于适配器的微调(Adapter-based Fine-tuning)策略。在每个Transformer块中,作者插入了两个轻量化的适配器模块:一个以串联方式插入在注意力层之后,另一个以并联方式插入在前馈网络(MLP)层之后。每个适配器由两个多层感知机(MLP)构成,先将输入下投影到低维空间,再上投影回原维度。在训练过程中,除了这些新插入的适配器和最终投影层的参数外,所有其他模态编码器的参数都被冻结。这种设计使得模型能够以极小的参数量调整,将预训练好的强大编码器快速适配到地理定位任务上。各模态编码器输出的[CLS]标记经过一个MLP投影层后,生成最终的多模态令牌。

2. 多模态组合与表征融合 (Multimodal Composition) 为了将来自不同模态的表征信息融合成一个统一的查询描述符,MMGeo引入了一个 多模态组合器(Multimodal Compositor)。为了实现对不同模态的统一兼容,作者直接采用了一个交叉注意力(Cross-Attention)块作为组合器。具体操作是:以图像令牌作为查询(Query),以其他模态(点云、深度或文本)的令牌作为键(Key)和值(Value),通过注意力机制进行信息聚合。最终,通过对组合后的令牌进行池化(Pooling)操作,得到最终的多模态组合描述符。这个过程允许模型动态地根据图像内容,从辅助模态中抽取最相关的信息进行融合。

3. 模态替代与对称对齐 (Modality Substitution Alignment) 本任务的一个核心不对称性在于:查询端是多模态的(如图像+点云),而参考数据库端(卫星视图)是单模态的(仅图像)。这种不对称性会阻碍多模态联合表征空间的对齐,并丧失了双向检索任务固有的正则化效果。为了解决这个问题,作者创新性地提出了 模态替代令牌([SUB] token) 策略。 对于每一个在参考端缺失的辅助模态(如点云P、深度D、文本T),都引入一个对应固定长度的可学习令牌[SUB]。在训练时,对于卫星视图参考图像,同样使用组合器,但将其输入中的辅助模态令牌替换为对应的[SUB]令牌。这样,就将原本不对称的学习目标(I+P → I)转换成了对称的目标(I+P ↔ I+[SUB])。这种设计使得模型能够在多模态联合表征空间中对齐无人机视图和卫星视图的表征,促进了更有效的双向对比学习。

4. 训练目标与数据集构建 模型的训练目标是在共享的多模态组合表征空间中,最大化正样本对(匹配的无人机多模态查询与卫星视图参考)的相似度,同时最小化负样本对的相似度。作者扩展了当前SOTA方法Game4Loc提出的加权InfoNCE损失,使其适用于多模态场景。相似度分数通过两个多模态描述符的点积来计算。

为了支撑本研究,作者构建了首批面向无人机多模态地理定位的数据集GTA-UAV-MM和UAV-VisLoc-MM。它们基于现有的GTA-UAV(游戏仿真)和UAV-VisLoc(真实世界)视觉数据集扩展而来。扩展方式如下: * 点云:对于GTA-UAV,利用游戏插件同步采集与图像视场匹配的点云;对于UAV-VisLoc,利用图像的高重叠特性通过运动恢复结构(SfM)和体素表面重建(SVM)进行三维重建,再根据相机位姿和视场角截取对应的点云。 * 深度图:将获取的点云投影为自上而下的稀疏深度图,然后通过k×k加权卷积核进行邻域求和,生成稠密的相对深度图。 * 文本描述:使用视觉语言模型(GPT-4o)为每张无人机视角图像生成详细和整体的文本描述。 这些处理使得数据集涵盖了图像、点云、深度图和文本四种模态,为全面评估多模态地理定位提供了基础。

主要实验结果与分析

实验在两个新构建的多模态数据集上进行,评估指标包括召回率@K(R@K)、平均精度(AP)、空间距离度量(SDM@K)和距离误差(Dis@1),并设置了同区域(Same-area)和跨区域(Cross-area)两种测试场景以评估模型泛化能力。

1. 主实验性能 在GTA-UAV-MM和UAV-VisLoc-MM数据集上,MMGeo(包含I+P→I, I+D→I, I+T→I三种组合)均一致性地超越了所有纯视觉(I→I)的SOTA基线方法(如Game4Loc、Sample4Geo、AnyLoc等)。例如,在GTA-UAV-MM跨区域设置下,与最好的纯视觉方法Game4Loc相比,使用图像+文本(I+T)组合的MMGeo将R@1从52.03%提升至55.34%;在UAV-VisLoc-MM跨区域设置下,I+P组合将R@1从47.56%提升至52.78%。这表明,即使是有限的辅助模态信息,也能通过MMGeo的 compositional retrieval 机制显著提升定位精度。定性结果(图5,图7)显示,MMGeo能够纠正纯视觉方法产生的半正匹配或错误匹配,找到更精确的卫星图像对应区域。

2. 消融研究与深入分析 * 多模态训练的“免费午餐”效应:一个有趣的发现是,即使仅在测试时使用图像单模态输入,但使用多模态数据训练的MMGeo模型(测试时用[SUB]令牌替代缺失模态)的性能,仍然优于仅用图像单模态数据训练的模型。这表明多模态信息帮助模型在表征空间中构建了更具判别力的描述能力,这种能力即使在没有多模态输入时,由于[SUB]令牌的存在而得以保留,为利用多模态数据提升单传感器系统性能提供了新思路。 * 异常场景下的鲁棒性:为了模拟传感器失效或数据退化(如部分遮挡、像素化、椒盐噪声),作者对查询图像进行了人为破坏。实验表明,在所有这些具有挑战性的成像条件下,MMGeo(尤其是I+T组合)的性能下降幅度远小于纯视觉方法,展现了更强的鲁棒性。这证明了多模态组合查询能够在单一传感器(摄像头)性能受限时,提供宝贵的互补信息,维持系统的定位能力。 * 可学习替代令牌[SUB]的影响:实验发现,[SUB]令牌的长度对性能影响不敏感,但长度接近对应模态编码长度时效果更优(如点云编码长512,对应500长度的[SUB]效果较好)。这表明[SUB]令牌能够有效地学习并模拟缺失模态的统计特征。 * 注意力可视化:通过对多模态组合器中交叉注意力权重的可视化(图6),作者证实模型能够成功建立正确的模态间关联,例如将图像中的建筑物与点云中对应的点簇、深度图中的特定区域或文本描述中的关键词联系起来,这解释了模型性能提升的内在机制。 * 失败案例分析:研究也指出了多模态数据的局限性。如图8所示,在某些场景下,点云可能无法提供超越视觉的有效信息;而文本描述偶尔会引入误导性线索(如将场景错误描述为“海边”),从而导致检索失败。这说明了多模态融合并非总是正向的,不准确或信息贫乏的辅助数据可能带来负面影响。

研究的价值与亮点

结论与意义:本研究定义并系统探索了无人机多模态组合地理定位这一新任务,提出了MMGeo这一创新框架。它通过统一架构、适配器微调、多模态组合器和模态替代令牌等一系列设计,成功地将多模态信息的优势引入到基于图像检索的地理定位范式中,在避免构建庞大多模态数据库的前提下,实现了比纯视觉方法更精确、更鲁棒的定位性能。同时,发布的GTA-UAV-MM和UAV-VisLoc-MM数据集填补了该领域基准数据的空白。

研究的突出亮点: 1. 问题定义新颖且实用:提出了“多模态组合查询 + 单模态图像数据库”的地理定位新范式,平衡了性能提升与实际应用可行性(无需多模态数据库)。 2. 方法创新:提出的MMGeo框架集成了适配器微调、跨模态组合器和模态替代对齐策略,巧妙地解决了查询与参考之间的模态不对称问题,实现了高效的多模态联合表征学习。 3. 资源贡献:构建并开源了首个涵盖图像、点云、深度、文本四种模态的无人机地理定位数据集,为社区提供了重要的研究基准。 4. 深入的分析与发现:不仅证明了多模态的有效性,还揭示了“免费午餐”效应、增强了模型在异常情况下的鲁棒性,并通过可视化等手段对模型机理进行了阐释,同时客观分析了多模态融合可能存在的风险。

局限性与未来方向:作者也指出了研究的局限性:受限于数据集规模,多模态方法的泛化能力仍需进一步验证;方法的性能根本上仍依赖于底层的图像检索模型;引入每个新模态都意味着增加与视觉模型参数量相当的编码器,计算开销需要权衡。如何在此类组合检索任务中更高效地利用多模态信息,仍是一个开放且有价值的研究方向。

总而言之,这项工作为无人机在GNSS拒止、环境复杂未知情况下的高精度自主定位提供了新的思路和技术路径,通过多模态 compositional learning 打开了一扇新的研究之门。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com