基于注意力增强U-Net与混合扩张卷积的乳腺超声图像肿瘤分割研究
第一作者及发表信息
本研究由Yu Yan(南京理工大学计算机科学与工程学院)、Yangyang Liu(南京工程学院信息与通信工程学院)、Yiyun Wu(江苏省中医院)、Hong Zhang(通讯作者,南京理工大学)等合作完成,发表于期刊Biomedical Signal Processing and Control第72卷(2022年),文章标题为《Accurate segmentation of breast tumors using AE U-Net with HDC model in ultrasound images》。
学术背景
乳腺癌是全球女性健康的主要威胁之一,早期精准诊断对预后至关重要。超声成像因其低成本、实时性成为乳腺癌筛查的常用手段,但超声图像中肿瘤区域的形态多变、边界模糊(blurred boundaries)为计算机辅助诊断系统(CAD)的自动分割带来挑战。传统分割方法(如分水岭算法、Snake模型)因依赖人工特征提取,在复杂背景下性能有限。深度学习模型(如U-Net)虽在医学图像分割中表现优异,但针对乳腺肿瘤的多样性仍需进一步优化。本研究旨在提出一种结合注意力机制(attention mechanism)和混合扩张卷积(Hybrid Dilated Convolution, HDC)的新型网络(AE U-Net with HDC),以提升分割精度。
研究方法与流程
1. 数据集构建与预处理
- 数据来源:316张乳腺超声图像(154恶性/162良性),采集自苏州飞诺科技Vinno 70超声诊断仪和江苏省中医院,探头频率5–14 MHz。
- 标注标准:由3名经验丰富的医生手动标注病灶轮廓(mask),并通过活检结果验证肿瘤良恶性。
- 数据增强:训练集(203张)通过水平翻转和弹性变形扩增至1251张,验证集(34张)扩增至68张,测试集(79张)保持原样。避免旋转和裁剪以保留肿瘤固有特征(如方向、边缘纹理)。
2. 模型架构设计
AE U-Net基础框架
- 核心改进:在经典U-Net的编码器-解码器结构中嵌入4个注意力门(Attention Gates, AGs)模块,通过权重矩阵α增强病灶区域特征。
- 损失函数创新:
- 传统损失函数(公式3)同时更新主网络和AGs模块参数。
- 本研究新增独立损失函数(公式5、6),交替训练主网络与AGs模块,通过微调(fine-tuning)提升AGs对病灶的聚焦能力。
HDC模块集成
- 目的:解决下采样导致的空间信息丢失问题。
- 实现方式:用3组HDC(膨胀率[1,2,5])替换原U-Net中的4个常规卷积层。
- HDC优势:通过锯齿形膨胀率结构(zigzag structure)兼顾局部细节与长距离信息,避免网格效应(gridding effect)。
- 接收野计算公式(公式2)显示,HDC在保持分辨率的同时扩大感受野(receptive field)。
3. 实验设计
- 对比实验:
- 不同HDC组数(1组/2组/3组):3组HDC的F1分数(83.37%)、准确率(94.63%)最优。
- 不同膨胀率组合:[1,2,5]优于[1,2,3],因更大膨胀率提升长距离信息整合能力。
- 与传统模型对比:AE U-Net with HDC的mIoU(83.08%)显著高于U-Net(79.78%)和Attention U-Net(80.64%)。
- 性能指标:包括精确率(precision)、召回率(recall)、AUC、Dice系数等。
主要结果
AGs模块效果:
- 微调训练使病灶分割精确率从82.38%提升至86.28%,mIoU从76.27%提升至81.81%。
- AGs输出的权重矩阵α可视化显示其对肿瘤区域的显著聚焦(图5)。
HDC模块贡献:
- 测试集上,HDC将分割准确率(ACC)从94.18%提升至95.81%,召回率从78.69%提升至80.48%。
- 恶性肿瘤图像(组织互侵明显)的分割改善尤为显著(图5(d4)–(f4))。
跨数据集验证:
- 在包含1543张图像的独立数据集(BI-RADS分级)上,模型对良性肿瘤(分级3/4a)的AUC达98.01%,优于恶性(分级4c/5)。
结论与价值
本研究提出了一种创新性的乳腺超声图像分割模型,其核心贡献包括:
1. 科学价值:
- 通过AGs模块的损失函数分阶段训练,实现了病灶区域的精准权重分配。
- HDC模块首次在乳腺超声分割中应用,验证了混合膨胀率对多尺度特征提取的有效性。
2. 应用价值:
- 为CAD系统提供高精度分割工具,辅助临床诊断(如PPV从83.08%提升至87.04%)。
- 模型代码开源(基于PyTorch),便于后续研究扩展。
研究亮点
- 方法创新:
- 首次将HDC与注意力U-Net结合,解决超声图像分辨率损失问题。
- 提出“AGs模块交替微调”策略,增强模型对模糊边界的适应性。
- 临床意义:
- 公开数据集验证(如Al-Dhabyani数据集)显示模型泛化能力(ACC 90.28%),优于ResNet(79%)等主流架构。
- 局限性:
- GPU算力限制未实现全部卷积层的HDC替换,未来计划优化网络深度。
其他有价值内容
- 作者指出未来方向:结合视频序列分析(而非单帧图像)提升动态分割鲁棒性,并探索与传统算法(如Snake模型)的融合。
- 伦理声明:研究获得伦理委员会批准及患者知情同意,符合医学研究规范。
(注:全文约2000字,涵盖研究全流程及核心创新点,数据与结论均引自原文。)