本文档属于类型a(单篇原创研究报告),以下是针对该研究的学术报告:
本研究由Haonan Yang和Dapeng Yang*(通讯作者)合作完成,两人均来自哈尔滨工业大学机器人技术与系统国家重点实验室及人工智能实验室。研究成果发表于期刊Expert Systems with Applications(2023年,卷213,文章编号119024),在线发布于2022年10月17日。
研究领域:本研究属于医学图像分割领域,聚焦于乳腺癌超声(Breast Ultrasound, BUS)图像的自动病灶分割。
研究动机:乳腺癌是全球女性健康的主要威胁之一,早期诊断对提高生存率至关重要。超声成像因其无创、低成本等优势成为临床常用手段,但其图像存在低对比度、高噪声和边界模糊等问题,导致人工判读存在主观差异。现有的基于卷积神经网络(CNN)的分割方法在长程依赖性和全局上下文信息建模方面存在局限性。
研究目标:提出一种结合CNN局部特征提取能力与Swin Transformer全局建模能力的混合网络(CSWin-PNet),通过多尺度特征融合和边界优化,提升乳腺病灶分割精度。
CSWin-PNet的核心架构分为编码器(Encoder)和解码器(Decoder)两部分:
- 编码器:
- CNN分支:采用残差模块(含GELU激活函数)提取浅层结构特征,通过步长卷积替代池化以减少信息丢失,生成多尺度特征图(分辨率分别为输入图像的1/1、1/2、1/4)。
- Swin Transformer分支:设计残差Swin Transformer块(Residual Swin Transformer Block, RSTB),利用其窗口自注意力(W-MSA)和移位窗口自注意力(SW-MSA)机制捕获全局上下文信息。
- 解码器:通过残差模块(含ReLU激活函数)逐步上采样,结合以下创新模块优化特征融合:
- 交互式通道注意力模块(ICA):利用解码器特征监督编码器通道权重,突出病灶相关区域。
- 补充特征融合模块(SFF):基于门控机制,通过反向注意力补充弱响应区域的特征。
- 边界检测模块(BD):通过最大池化与差值运算生成病灶边界图,增强边界分割质量。
混合损失函数包含三部分:
- RSTB损失(L_S):Dice损失与二元交叉熵(BCE)损失的加权和。
- 边界损失(L_B):形状预测损失(L_shape)与边界MSE损失(L_boundary)的加权组合。
- 最终分割损失(L_O):Dice与BCE损失。
部分低对比度或异质性病灶区域存在漏分割现象,提示未来需优化全局感知能力。
科学价值:
1. 提出首个结合CNN与Swin Transformer的乳腺超声分割网络,通过多尺度特征互补和边界优化,解决了传统方法在全局建模与局部细节保留上的矛盾。
2. ICA和SFF模块的创新设计为医学图像分割中的特征融合提供了新思路。
应用价值:
CSWin-PNet可作为计算机辅助诊断(CAD)系统的核心组件,辅助医生提升乳腺癌早期筛查的准确性与效率。
研究受中国国家自然科学基金(#52075114)和哈尔滨工业大学跨学科研究基金(IR2021218)资助。未来计划探索更高效的Transformer变体以进一步优化性能。
(报告总字数:约1500字)