本研究的核心作者包括Zhemin Zhuang、Nan Li、Alex Noel Joseph Raj(通讯作者)等,分别来自中国汕头大学电子工程系广东省数字信号与图像处理重点实验室、印度班加罗尔BMS理工学院电子与通信工程系,以及汕头大学医学院第一附属医院影像科。研究成果于2019年8月23日发表在开放获取期刊《PLOS ONE》(DOI: 10.1371/journal.pone.0221535)。
研究领域与动机
乳腺癌是威胁女性健康的常见妇科疾病,早期诊断对提高患者生存率至关重要。乳腺超声(Breast Ultrasound, BUS)因其无辐射、低成本及实时成像优势,成为临床筛查的首选方法。然而,BUS图像存在噪声多、对比度低、病灶边界模糊等问题,传统分割算法(如阈值法、模糊C均值聚类、主动轮廓模型)依赖人工参数调整或初始轮廓定位,泛化能力有限。深度学习虽在医学图像分割中展现潜力,但常规U-Net模型在BUS图像中面临特征提取不足、小目标分割误差大等挑战。
研究目标
本研究提出一种新型RDAU-Net模型(Residual-Dilated-Attention-Gate U-Net),通过整合残差单元(Residual Units)、空洞卷积(Dilated Convolution)和注意力门(Attention Gate, AG)模块,提升BUS病灶分割的精度与鲁棒性,为临床诊断提供自动化工具。
基础框架
RDAU-Net基于传统U-Net结构,包含编码器(Encoder)和解码器(Decoder)路径,但进行了三项关键改进:
(1)残差单元替换普通卷积块
- 目的:解决深度网络梯度消失问题,增强边缘特征提取。
- 实现:编码器路径包含6个残差单元,每单元由3×3卷积、批量归一化(Batch Normalization, BN)、ReLU激活函数及跳跃连接(Skip Connection)构成,通过1×1卷积(Ws)匹配维度(公式3)。解码器路径含5个残差单元,上采样后与编码器特征融合。
(2)空洞卷积模块
- 目的:扩大感受野(Receptive Field),保留空间信息。
- 实现:编码器末端输出4×4特征图,经6组空洞卷积(膨胀率r=1,2,4,8,16,32,对应感受野3×3至127×127)处理,结果相加后输入解码器(图7)。
(3)注意力门机制
- 目的:抑制背景噪声,聚焦病灶区域。
- 实现:AG模块通过Sigmoid函数(σ2)生成注意力系数α(公式6-7),加权编码器特征(公式8),替代传统的裁剪-复制操作。
数据来源
- 训练/验证集:荷兰Gelderse Vallei医院的857张BUS图像(730训练+127验证),含良恶性病灶。
- 测试集:205张图像(163张来自公开数据集B [13],42张来自汕头大学附属第一医院)。
数据增强
为缓解样本不足,采用四种仿射变换(垂直/水平平移、剪切、水平翻转),将训练集从730张扩增至2919张(图9)。
输入分辨率优化
对比64×64、96×96、128×128、256×256像素输入,128×128分辨率在Dice系数(0.8469)、mIoU(0.8067)等指标上最优(表3),且计算效率平衡。
对比模型
包括FCN8s、FCN16s、SegNet、U-Net及其变体(Residual U-Net、Dilated U-Net等)。
评估指标
采用9项指标:准确率(Accuracy, Acc)、Dice系数(DC)、mIoU、AUC(Area Under Curve)、灵敏度(Sensitivity, Sen)、特异性(Specificity, Sp)、F1分数(F1)、精确率(Precision, PC)及损失函数(Loss)。
RDAU-Net在测试集上表现显著优于对比模型(表4):
- Dice系数:0.8469(优于Residual U-Net的0.8253和Dilated U-Net的0.8094)。
- mIoU:0.8067,表明分割结果与金标准(专家标注)高度重合。
- AUC:0.9227,显示模型对病灶/背景的区分能力优异。
本研究为BUS病灶分割设立了新基准,其代码与数据集共享将进一步推动AI在医学影像中的应用。