《SC-NeRF: 基于稀疏视角的自校正神经辐射场》是由中国矿业大学和上海交通大学联合团队在《Journal of LaTeX Class Files》2023年9月发表的一项原创研究。以下为详细学术报告:
第一作者Liang Song(中国矿业大学)与共同一作Guangming Wang(上海交通大学)领衔,团队包括Jiuming Liu、Zhenyang Fu、Yanzi Miao(中国矿业大学)及Hesheng Wang(上海交通大学)。研究获国家自然科学基金(61976218)和中央高校基金(2020ZDpy0303)支持。
科学领域:计算机视觉中的新视角合成(Novel View Synthesis, NVS)与神经辐射场(Neural Radiance Fields, NeRF)。
研究动机:现有NeRF方法在物体和室内场景泛化良好,但迁移至户外场景时因以下问题失效:
1. 分布偏移:训练(物体级数据集)与测试(户外场景)的空间尺度差异导致渲染中出现黑色伪影;
2. 视角突变:户外大基线视角变化引发边界空白或重影。
目标:提出首个仅需3张稀疏输入视图即可泛化至户外场景的NeRF框架,解决上述挑战。
(1)几何校正模块
- 问题定位:户外场景深度范围远大于训练集,导致深度估计偏差。
- 解决方案:
- 通过MLP从几何体积回归辐射特征(Radiance Features)和体积密度(Volume Density);
- 基于体积渲染公式计算渲染深度(Rendered Depth),归一化后与光线方向拼接为查询向量(Query);
- 多头部注意力机制:以采样点维度计算注意力权重(非特征维度),优先贡献显著的深度点。
- 关键创新:深度嵌入(Depth Embedding)作为查询值,避免仅用方向嵌入导致的阴影转移问题。
(2)外观校正模块
- 问题定位:大视角变化导致纹理缺失。
- 解决方案:
- 将2D图像特征反投影至3D采样点,生成外观特征(Appearance Features);
- 以深度+方向为查询,多视图外观特征均值为键(Key),校正后的辐射特征为值(Value),通过注意力机制融合。
- 效果:消除边界空白与重影,适应场景外观变化。
科学价值:
1. 首次实现从物体级训练到户外场景的NeRF泛化,突破分布偏移与视角突变的限制;
2. 提出几何-外观双校正框架,为跨场景神经渲染提供新范式。
应用价值:
- 无人机/自动驾驶:稀疏视角即可生成高质量街景;
- 虚拟现实:降低多视图采集成本,支持实时渲染。
(注:全文实验数据详见原文Table I-IV,可视化对比见图1/4/6。)