基于深度学习的乳腺癌超声图像分类研究学术报告
一、作者及发表信息
本研究由土耳其Kafkas University的Fatih Uysal与Gazi University的Mehmet Murat Köse合作完成,论文《Classification of Breast Cancer Ultrasound Images with Deep Learning-Based Models》发表于期刊《Eng. Proc.》2023年第31卷,2022年12月2日在线发布。论文采用开放获取(Open Access)形式,遵循CC BY 4.0许可协议。
二、学术背景与研究目标
乳腺癌是全球女性最高发的癌症类型,也是女性癌症死亡的主要原因。传统诊断依赖医学影像(如超声、MRI),但人工分析存在主观性强、效率低的问题。深度学习在医学图像分析中展现出潜力,但既往研究多聚焦于乳腺X线摄影(mammogram),对超声图像的分类研究较少,且多为良恶性二分类。本研究旨在通过深度学习模型(VGG16、ResNet50、ResNeXt50)实现乳腺癌超声图像的三分类(良性、恶性、正常),并探索数据预处理与增强对模型性能的影响。其科学价值在于填补超声图像多分类研究的空白,应用价值在于为临床提供高效、客观的计算机辅助诊断(CAD)工具。
三、研究流程与方法
1. 数据集与预处理
- 数据来源:使用Kaggle平台公开的乳腺癌超声数据集(780张图像,400×400像素),包含良性(437张)、恶性(210张)、正常(133张)三类,按70%训练、30%验证/测试划分。
- 预处理:中心裁剪(center-crop)和归一化(normalization),统一图像尺寸至400×400。
- 数据增强:采用平移缩放旋转(shift scale rotate)、RGB偏移(RGB shift)、随机亮度对比度调整(random brightness contrast)和色彩抖动(color jitter),以提升模型泛化能力。
模型构建与训练
性能评估指标
以准确率(accuracy)、F1分数(F1 score)和受试者工作特征曲线下面积(AUC)为评价标准,分别计算三类样本的指标值。
四、主要研究结果
1. 模型性能对比
- ResNeXt50表现最优,准确率达85.83%,但其正常样本的F1(72%)和AUC(74.48%)较低,可能因正常样本数量不足导致。
- ResNet50综合稳定性最佳,良恶性样本的F1(87.93%/83.2%)和AUC(91.56%/93.67%)均较高,且正常样本AUC达95.32%。
- VGG16准确率最低(81.11%),正常样本分类性能显著弱于其他两类。
五、结论与意义
1. 科学价值
- 验证了深度学习在乳腺癌超声多分类中的可行性,ResNet50的稳定性为后续研究提供基准模型。
- 数据增强策略对小样本医学图像分析具有普适参考意义。
六、研究亮点
1. 方法创新:首次将ResNeXt50应用于乳腺癌超声分类,并系统比较三种CNN模型的性能差异。
2. 流程优化:结合中心裁剪与多类型数据增强,显著提升小数据集的分类效果。
3. 临床导向:聚焦超声影像的实用性,弥补了既往研究过度依赖乳腺X线的局限。
七、未来方向
作者建议进一步扩大数据集、测试集成学习(ensemble learning)和生成对抗网络(GAN)数据扩增,以提升正常样本的分类性能。此外,迁移学习(transfer learning)和混合模型(hybrid models)可作为优化方向。