分享自:

一种水下图像增强基准数据集及其展望

期刊:IEEE Transactions on Image ProcessingDOI:10.1109/TIP.2019.2955241

本文由 Chongyi Li, Chunle Guo, Wenqi Ren (通讯作者), Runmin Cong, Junhui Hou, Sam Kwong, Dacheng Tao 等多位学者合作完成,发表于2020年的 IEEE Transactions on Image Processing 期刊上。这项研究系统地解决了水下图像增强领域长期存在的一个关键瓶颈问题:缺乏用于公平、全面评估算法性能以及有效训练深度学习模型的大规模、真实世界的基准数据集。

学术背景与研究目的

水下图像增强在海洋工程和水下机器人等领域具有重要意义。由于光在水下的波长选择性吸收和散射,包括前向散射和后向散射,以及“海洋雪”等颗粒物引入的噪声,导致获取的水下图像普遍存在能见度低、对比度下降、颜色失真(偏蓝或偏绿)等问题。这些问题严重限制了水下图像在海洋生物学、考古学等实际应用中的价值。尽管过去几年涌现了大量水下图像增强算法,但对其性能的评估主要依赖于合成数据集或少数精选的真实图像,导致无法全面衡量算法在复杂多变的真实水下环境中的表现,也难以把握该领域的整体进展。

该研究的主要目的非常明确:1) 填补数据空白,构建第一个大规模真实世界水下图像增强基准数据集;2) 利用该数据集,对现有前沿算法进行全面、定性和定量的性能评估与分析;3) 展示该数据集在训练深度学习模型方面的潜力,并据此提出一个基线网络模型。这项工作的核心是构建名为“水下图像增强基准”的数据集,以期推动水下图像增强领域的标准化和科学化发展。

详细工作流程

本研究的工作流程主要围绕数据集的构建、利用数据集进行评估以及展示数据集用于深度学习训练这三个核心环节展开。

第一环节:构建UIEB数据集 该过程包含两个主要步骤:数据收集与参考图像生成。 1. 数据收集: 研究团队从互联网、相关论文、自有视频等广泛来源收集了大量真实水下图像。经过筛选,保留了约950幅候选图像,构成了UIEB数据集的基础。这些图像涵盖了从珊瑚礁、海洋生物到水下设施等多种场景,分辨率各异,并具有不同的退化特征(如不同程度的色偏、对比度降低和模糊),确保了数据集的多样性和代表性。 2. 参考图像生成: 为每幅原始水下图像获取高质量的参考图像是本研究的关键创新与挑战。由于无法同时拍摄真实水下场景及其对应的“地面真实”图像,研究团队采用了一种基于多算法融合与人工主观评价的策略。 * 候选结果生成: 他们选取了9种水下图像增强算法、2种图像去雾算法以及1个商业增强应用,共计12种方法,对950幅原始图像进行处理,生成了总共12 x 950张增强结果。 * 成对比较与投票: 研究邀请了50名志愿者(25名有图像处理经验,25名没有)进行严格的成对比较。对于每一幅原始图像,志愿者需要从12种方法的增强结果中,以原始图像为参考,两两比较,选出视觉上更优的结果,经过多轮比较最终选出“最佳”结果。 * 满意度筛选与数据集划分: 志愿者还需对选出的“最佳”结果标记是否满意。通过多数投票确定每幅图的参考图像。如果超过半数志愿者对选出的参考图像标记为“不满意”,则对应的原始图像被视为具有挑战性的图像,不提供参考图像。最终,UIEB包含两个子集:890对“原始图像-参考图像”;60幅不提供满意参考图像的“挑战性图像”。这是第一个提供大量参考图像的真实水下图像数据集。分析显示,参考图像大多来源于商业应用Dive+和融合算法,这表明能有效改善对比度和恢复真实色彩的算法结果更受青睐。

第二环节:基于UIEB的综合评估 利用构建好的UIEB,研究对9种主流单幅水下图像增强算法进行了全面评估,评估分为三个维度: 1. 定性评估: 将测试图像分为蓝绿色偏图像、俯视图像、前视图像、低后向散射场景和高后向散射场景等五类,并直观展示各算法的增强结果。评估发现:融合算法总体表现相对稳健;基于物理模型的方法(如UDCP、红通道法等)在估计薄雾光、处理高后向散射场景时容易失效或引入色偏;非物理模型的方法(如两步法、Retinex法等)可能产生过度增强或欠增强的结果;没有一种算法能在所有类型的水下图像上都表现最优。 2. 定量评估: * 全参考评估: 使用均方误差(MSE)、峰值信噪比(PSNR)和结构相似性(SSIM)指标,将算法结果与UIEB提供的参考图像进行对比。结果显示Dive+和融合算法在全参考指标上领先。 * 无参考评估: 使用了两种水下图像专用质量指标:UCIQE和UIQM。有趣的是,在某些情况下,这两种指标给出的高分结果(如直方图先验方法)在主观视觉上存在明显的色偏或伪影,与人类视觉感知不一致。这揭示了当前水下无参考评价指标在有些情况下的局限性。 * 运行时间评估: 对比了各算法处理不同尺寸图像的平均耗时,为实际应用提供参考。 3. 评估结论: 综合分析表明,由于依赖不准确的水下成像物理模型或假设,现有算法各有局限。融合算法在多数情况下表现较好,但没有“全能”的算法。同时,专门的水下图像质量评价指标仍需改进以更好地契合人类视觉感知。

第三环节:提出Water-Net基线模型 为证明UIEB数据集可用于训练有效的深度学习模型,并促进深度学习在水下图像增强中的应用,研究团队提出了一个称为Water-Net的卷积神经网络作为基线模型。 1. 输入生成: 受融合算法启发,Water-Net的输入并非单张原始图像。而是对原始图像分别应用白平衡、直方图均衡化和伽马校正三种预处理操作,生成三幅分别侧重色彩校正、对比度提升和亮度调整的输入图像。 2. 网络架构: Water-Net是一个门控融合网络。其核心思想是学习三张置信度图,用于自适应地融合三路预处理输入。网络首先通过特征变换单元对三路输入进行细化以减少预处理引入的伪影,然后预测对应的置信度图,最后通过加权融合得到最终增强结果。网络采用预训练的VGG19网络的感知损失进行优化,以生成视觉上更自然的结果。 3. 训练与实现: 使用UIEB中800对图像进行训练,90对图像进行测试。训练图像被调整至固定尺寸,并使用了翻转和旋转进行数据增强。网络在TensorFlow上实现。 4. 实验结果: 在UIEB测试集和挑战集上的实验表明,Water-Net能有效去除雾状模糊和色偏,其生成结果在视觉上甚至优于部分参考图像(更自然的观感和更好的细节)。在全参考指标(PSNR, SSIM)上,Water-Net优于所有对比的先进算法。在挑战集的用户主观评分中,Water-Net也获得了最高的平均分和最低的标准差,证明了其有效性和鲁棒性。这充分说明了UIEB数据集对于训练具有良好泛化能力的深度学习模型是可行的。

主要结果

  1. 成功构建UIEB数据集: 最终数据集包含950幅真实水下图像,其中890幅带有通过严谨人工评价流程生成的高质量参考图像,60幅被标记为挑战图像。数据集的多样性、规模和参考图像的质量是其核心成果。
  2. 全面的算法性能剖析: 定性评估清晰展示了不同算法在不同场景下的优缺点;定量评估提供了客观数据支持,并同时暴露了当前UCIQE和UIQM等无参考评价指标与人类主观感知在某些情况下的脱节。这一发现对未来评价指标的设计具有重要意义。
  3. Water-Net的有效性验证: Water-Net在测试集和挑战集上均取得了优异的视觉和定量结果,不仅证明了该网络架构作为基线的有效性,更重要的是强有力地证实了UIEB数据集能够成功用于训练深度学习模型,并推动性能提升。

结论与价值

本研究的核心结论是:通过构建大规模真实世界水下图像增强基准数据集,为公平、全面地评估算法性能提供了平台,并打通了利用真实数据训练高效深度学习模型的路径。

其科学价值在于:系统化地解决了领域内长期缺乏标准化评估工具的问题,使不同算法的比较有了共同且可靠的基础;深度剖析了现有算法的能力边界与局限,明确了未来研究需要攻克的方向,例如开发更鲁棒的处理高后向散射和复杂色偏的方法;揭示了当前评价指标的不足,推动更符合人类视觉感知的新评价标准的发展。

其应用价值在于:UIEB数据集可直接用于学术界和工业界,作为算法开发和测试的基准;提出的Water-Net模型及其代码开源,为后续研究者提供了可借鉴的基线;研究指出的方向(如结合更精确的物理模型、利用深度图信息)对开发下一代实用化水下图像增强技术具有重要指导意义。

研究亮点

  1. 开创性的数据集: 构建了首个大规模、带有人工评价参考图像的真实世界水下图像增强基准数据集,填补了该领域的关键空白。
  2. 全面且深入的评估范式: 不仅进行了常规的定性与定量评估,还通过精心设计的分类(如按场景、按散射程度)和交叉对比,深入揭示了算法失效的具体原因,提供了远超简单性能排名的深刻洞察。
  3. 基线模型与数据验证的闭环: 不仅提供了数据集,还通过设计并训练一个有效的深度学习模型,实证了数据集用于训练CNN的可行性和价值,形成了“构建数据集-评估现有方法-展示数据用途”的完整逻辑闭环。
  4. 对评价体系的批判性发现: 明确指出了现有水下无参考质量评价指标(UCIQE, UIQM)与人类主观感知之间的不一致性,这一发现对该子领域的研究具有重要的警示和推动作用。

其他有价值的内容

论文在讨论部分坦诚地指出了当前参考图像生成策略的局限性,特别是在处理远距离后向散射时,现有算法无法完全消除其影响,而部分志愿者也可能忽略这种退化。这引出了对未来工作的展望:结合更精确的修订版水下成像模型、利用带深度图的数据集、设计深度估计网络,以及在未来算法进步后重新组织参考图像的生成流程。这些思考体现了研究的严谨性和前瞻性。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com