分享自:

基于深度学习的单目 RGB 空间目标位姿估计方法研究

期刊:西安交通大学

该文档属于类型A,为一篇原创性硕士学位论文的研究报告。以下为针对该研究的学术报告内容:


作者及机构
学位申请人宋驰(Chi Song)在导师张璐教授(Prof. Lu Zhang)指导下完成此研究,所属学科为电子信息(Electronic Information),论文提交至西安交通大学(Xi’an Jiaotong University),完成时间为2025年5月。


学术背景
本研究属于计算机视觉与深度学习交叉领域,聚焦单目RGB相机的空间目标位姿估计(pose estimation)。随着太空任务复杂度提升,失效卫星与太空碎片问题日益严峻,在轨服务(On-Orbit Service, OOS)和主动碎片清除(Active Debris Removal, ADR)亟需高效、轻量化的位姿估计技术。传统方法依赖双目视觉、激光雷达等多传感器,存在计算资源消耗大、硬件成本高等问题。单目RGB相机因体积小、成本低、易集成等优势成为微小卫星平台的首选,但单目系统固有的深度信息缺失与复杂背景干扰导致算法面临挑战。

研究目标包括:
1. 针对合作目标(带显著标志物)与非合作目标(无主动信息、弱纹理),分别设计基于深度学习的位姿估计算法;
2. 通过自建多源数据集验证算法的鲁棒性与实时性;
3. 为航天任务提供轻量化技术方案。


研究方法与流程
研究分为算法设计、数据集构建、实验验证三阶段,具体流程如下:

1. 算法设计

(1)合作目标位姿估计(PoseCNN-CO算法)
- 多尺度编码器改进:引入FReLU激活函数扩展感受野,增强局部特征提取能力。
- 二维位置特征融合:通过掩码预测模块隔离背景噪声,联合目标边缘与形状信息。
- 闭环反馈机制:设计几何一致性驱动的半监督损失函数,联合优化旋转与平移分支,解决标注数据稀缺问题。

(2)非合作目标位姿估计(Gen6D-PSA算法)
- 极化自注意力机制(Polarized Self-Attention):在编码器中融合局部特征增强与全局抑制模块,提升弱纹理目标的特征表达能力。
- 逐像素特征匹配:取代传统全局特征向量比对,通过像素级特征相似性减少背景干扰。
- 三阶段改进:优化目标检测、视角选择、位姿优化模块的损失函数,提升精度。

2. 自建数据集

  • 数据来源:实测数据、SFM(Structure from Motion)重建数据、虚拟渲染数据。
  • 增强方法:动态模糊、光照变化、遮挡模拟等数据增强技术。
  • 数据集特点:覆盖不同背景、卫星模型及极端场景,支持算法泛化性验证。

3. 实验验证

  • 对比实验:在自建数据集及公开数据集(LineMOD、YCB-V)上测试,以ADD-0.1d(平均距离误差阈值0.1倍物体直径)为评价指标。
  • 消融实验:验证FReLU、闭环反馈等模块的贡献。
  • 可视化分析:展示算法在复杂环境下的稳定性。

主要结果
1. PoseCNN-CO性能:在自建数据集中召回率97.6%,平均推理时间0.051秒;在LineMOD数据集上ADD-0.1d指标优于主流RGB方法。
2. Gen6D-PSA性能:召回率94.2%,推理时间0.067秒;对非合作目标的遮挡和弱纹理场景鲁棒性显著提升。
3. 自建数据集有效性:多源数据融合解决了真实太空场景数据不足的问题,为算法训练提供多样化样本。

结果逻辑链:
- 二维位置特征融合→提升合作目标边缘信息利用率→提高召回率;
- 极化自注意力→增强非合作目标的局部特征→减少背景干扰;
- 几何一致性损失→降低对标注数据的依赖→适应实际任务标注稀缺特点。


结论与价值
1. 科学价值
- 提出FReLU与极化自注意力的特征提取新方法,为单目位姿估计提供创新技术路径;
- 融合半监督学习与几何一致性约束,解决小样本场景下的模型泛化问题。
2. 应用价值
- 为微小卫星平台提供轻量化、低成本的位姿估计方案;
- 支撑在轨服务与碎片清除任务的高精度实时需求。


研究亮点
1. 算法创新
- PoseCNN-CO的闭环反馈机制首次将几何一致性应用于空间合作目标位姿估计;
- Gen6D-PSA的逐像素匹配策略显著降低非合作目标的背景干扰。
2. 工程贡献
- 自建航天器数据集填补了该领域公开数据的不足;
- 算法推理时间均低于0.1秒,满足航天器实时性要求。


其他有价值内容
1. 论文对比了旋转表示方法(旋转矩阵、四元数等)的优劣,为位姿参数化提供理论依据;
2. 实验部分详细分析了极端光照和遮挡场景下的算法失效边界,对实际任务部署具有指导意义。

本研究为单目视觉在航天任务中的应用提供了理论与实践基础,后续可结合多模态传感器进一步优化深度估计精度。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com