分享自:

基于改进 deblurgan 的可见光图像去运动模糊方法

期刊:指挥控制与仿真

王碧琳(河南应用技术职业学院)在《指挥控制与仿真》期刊(2025年6月网络首发)发表了一项关于可见光图像去运动模糊的研究。该研究针对现有DeblurGANv2模型在复杂运动模糊场景中存在的计算复杂度高、推理速度慢及细节恢复不足等问题,提出了一种名为Faster-DeblurGAN的改进方法。

学术背景
运动模糊是相机与被摄物体相对运动导致的图像退化现象,传统方法如逆滤波、维纳滤波等依赖点扩散函数(PSF, Point Spread Function)估计,但对噪声敏感且难以处理空间变化的PSF。深度学习技术(如CNN、RNN)虽能自动学习模糊-清晰图像映射关系,但现有模型如DeblurGANv2仍存在参数量大、实时性差等缺陷。本研究旨在通过模型轻量化和多尺度特征融合优化,提升去模糊效率与质量。

研究流程
1. 模型架构改进
- 主干网络替换:将DeblurGANv2的Inception-ResNet替换为FasterNet。FasterNet通过部分卷积(PConv)和逐点卷积(PWConv)减少浮点运算量(FLOPs仅为传统卷积的1/16),并采用四阶段层级结构,每个阶段嵌入FasterNet块(含PConv层和两个PWConv层)。
- 特征融合模块:采用自适应结构特征融合(ASFF, Adaptive Structure Feature Fusion)替代特征金字塔网络(FPN)。ASFF通过动态权重分配(式1:α、β、γ权重经Softmax归一化)实现跨层级特征的空间一致性融合,抑制尺度冲突。
- 上采样优化:设计高效上采样卷积块(EUCB, Efficient Up-Convolution Block),结合反卷积、深度可分离卷积和通道混洗,提升细节恢复能力。

  1. 损失函数设计
    引入光流一致性损失(OFC Loss, Optical Flow Consistency Loss),通过双向光流映射误差(式2)约束运动模糊补偿过程,增强非均匀模糊建模能力。总损失函数(式3)整合像素损失(Lp)、感知损失(Lx)、对抗损失(Ladv)和OFC Loss,权重分别为0.5、0.006、0.01和0.01。

  2. 实验验证

    • 数据集:使用GoPro数据集(3,214张图像,分辨率1,280×720),以连续15帧均值作为模糊输入,中间帧为清晰目标。
    • 训练配置:在NVIDIA GTX 3060显卡上采用Adam优化器(初始学习率0.0001,衰减率0.99),批大小为1,训练500轮次,并应用单侧标签平滑和历史平均技术稳定训练。
    • 对比模型:包括DeblurGANv2、DeepDeblur、BANet和DBGAN,评价指标为峰值信噪比(PSNR)和结构相似性(SSIM)。

主要结果
1. 性能提升:Faster-DeblurGAN在GoPro测试集上PSNR达31.13(较DeblurGANv2提高3.3%),SSIM为0.947(提高2.4%),参数量仅4.78M(减少52.9%)。
2. 消融实验
- FasterNet降低56.4%参数量;
- ASFF使PSNR和SSIM分别提升0.71和0.017;
- EUCB进一步带来0.34(PSNR)和0.01(SSIM)增益;
- OFC Loss贡献0.66(PSNR)和0.005(SSIM)提升。
3. 主观效果:局部对比显示,Faster-DeblurGAN在窗户纹理、车辆细节及人脸眼部区域的恢复更接近真实图像,且伪影少于基准模型。

结论与价值
该研究通过轻量化设计和多尺度融合策略,显著提升了运动模糊去除的效率和效果。科学价值在于:
1. 提出FasterNet与ASFF结合的动态特征融合机制,为复杂运动模糊建模提供新思路;
2. 光流一致性损失的引入拓展了生成对抗网络(GAN)在自监督学习中的应用。应用价值体现在实时图像处理(如监控、自动驾驶)中可实现高效部署。

研究亮点
1. 创新架构:首次将FasterNet与ASFF模块集成于DeblurGAN框架,兼顾速度与精度;
2. 自监督优化:OFC Loss通过双向运动补偿增强模型鲁棒性;
3. 工程友好性:参数量减半,推理速度提升,适合资源受限场景。

其他发现
研究指出当前方法对文字等高频纹理恢复仍存在局限,未来需进一步优化多尺度特征交互机制。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com