这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
基于改进DeepLabv3+的遥感图像分割算法研究
一、作者及发表信息
本研究由江西农业大学软件学院的黄聪、杨珺(通信作者)、刘毅、谢鸿慧合作完成,发表于《电子测量技术》(*Electronic Measurement Technology*)第45卷第21期(2022年11月),DOI编号为10.19651/j.cnki.emt.2210180。
二、学术背景
研究领域为高分辨率遥感图像语义分割,属于计算机视觉与遥感技术的交叉领域。随着遥感技术发展,亚米级高分辨率图像在国土观测、农田规划等场景中应用广泛,但传统分割方法(如阈值法、聚类法)存在地物边缘分割不连续和小目标漏分割的缺陷。尽管深度学习模型(如FCN、U-Net、DeepLab系列)提升了分割精度,但针对遥感图像的特殊性(如多尺度地物、复杂背景),现有模型仍存在改进空间。
本研究旨在通过改进DeepLabv3+模型,解决以下问题:
1. 增强地物边缘的连续性;
2. 提升小目标分割精度;
3. 优化多尺度特征融合能力。
三、研究流程与方法
1. 模型改进设计
- 主干网络替换:将原始DeepLabv3+的Xception主干网络替换为分散注意力网络ResNeSt(Split-Attention Networks),通过跨通道特征分组加权融合(公式1-6),提取更丰富的深层语义信息。
- 坐标注意力机制(CA, Coordinate Attention):在编码层引入CA模块,通过全局平均池化捕获空间位置信息(图4),增强对小目标的定位能力。
- 级联特征融合(CFF, Cascade Feature Fusion):在解码层融合1/8和1/16尺度的特征图(图5),采用空洞卷积(dilation rate=2)和批量归一化(Batch Normalization)保留多尺度细节。
实验数据准备
实验与对比分析
四、主要结果
1. 性能提升
- 改进模型在测试集上的mIoU达97.07%,较原始DeepLabv3+(Xception主干)提升3.39%,其中农田和水域的IoU分别达98.63%和95.80%(表3)。
- CFF模块显著改善边缘连续性(图8方框区域),CA机制使小目标分割误差降低21%。
五、结论与价值
1. 科学价值
- 提出了一种融合ResNeSt、CA和CFF的改进DeepLabv3+框架,为高分辨率遥感图像分割提供了多尺度特征增强和位置敏感注意力的新思路。
2. 应用价值
- 在农业监测、土地利用等领域可实现精准地物分类,尤其适用于田埂、水域边界等复杂场景。
六、研究亮点
1. 方法创新
- 首次将ResNeSt的分散注意力机制应用于遥感图像分割,通过分组加权融合提升特征表达能力。
- 设计的CFF模块解决了传统解码层简单拼接导致的细节丢失问题。
2. 性能突破
- 在公开数据集中达到当前最优的mIoU(97.07%),且模型泛化能力强。
七、其他发现
- 研究指出当前模型在田埂断裂等极端场景下仍存在局限,未来需进一步优化复杂背景下的分割鲁棒性。
该研究通过算法创新和实验验证,为遥感图像解译提供了高效工具,兼具理论意义和工程应用潜力。