本文属于类型a,是一篇关于乳腺癌超声图像分割的原创性研究论文。以下为详细学术报告:
本研究由Cheng Xue(香港中文大学计算机科学与工程系)、Lei Zhu(剑桥大学应用数学与理论物理系)、Huazhu Fu(阿布扎比Inception人工智能研究所)等多名学者合作完成,通讯作者为Lei Zhu和Hai Zhang(深圳市人民医院/暨南大学第二临床医学院)。论文题为《Global Guidance Network for Breast Lesion Segmentation in Ultrasound Images》,发表于Medical Image Analysis期刊(2021年,第70卷,文章编号101989)。
乳腺癌是全球女性高发的致命疾病,早期诊断依赖医学影像分析。超声成像因无辐射、低成本成为重要筛查工具,但其图像存在斑点噪声(speckle noise)、模糊边界(blurry boundaries)和强度不均(inhomogeneous intensity)等问题,导致传统分割算法精度不足。
开发一种基于深度学习的自动分割网络(GG-Net),通过全局引导模块(Global Guidance Block, GGB)和病灶边界检测模块(Boundary Detection, BD),提升超声图像中乳腺癌病灶分割的准确性,并验证其在其他器官(如前列腺)分割中的泛化能力。
GG-Net的核心创新包括:
- 多层级特征融合(Multi-Layer Integrated Feature, MLIF):整合浅层CNN的细节特征与深层CNN的语义特征,生成引导信息。
- 空间-通道双域全局引导模块(GGB):
- 空间域GGB:通过非局部操作(non-local operations)学习长程空间依赖关系,利用MLIF作为引导信息优化特征相似性矩阵。
- 通道域GGB:采用挤压-激励(Squeeze-and-Excitation)机制动态加权通道特征,增强关键通道的响应。
- 边界检测模块(BD):在浅层CNN中嵌入边界预测分支,通过最大池化偏移(maxpooling shift)技术提取病灶边界,辅助分割结果细化。
在前列腺超声分割任务中,GG-Net的Dice系数达95.4%,优于DAF(95.3%)和U-Net(93.0%)。
(全文约2000字)