分享自:

利用视觉注意网络检测含有肺部病灶的胸部X光片

期刊:Medical Image AnalysisDOI:10.1016/j.media.2018.12.007

学术报告:自动检测胸部X光片中肺部病变的深度学习研究

一、研究背景、作者及发表信息:

由 Emanuele Pesce、Samuel Joseph Withey、Petros-Pavlos Ypsilantis、Robert Bakewell、Vicky Goh 和 Giovanni Montana 等联合完成的研究《Learning to Detect Chest Radiographs Containing Pulmonary Lesions Using Visual Attention Networks》,发表于期刊《Medical Image Analysis》,2019年第53卷(页码26-38)。本研究主要由 King’s College London(英国伦敦国王学院)、Guy’s & St Thomas’ NHS Foundation Trust(伦敦国民医疗服务体系信托)以及 Imperial College Healthcare NHS Trust(伦敦帝国学院医疗信托)合作完成。

二、研究背景与目标:

肺癌是全球范围内最常见的癌症类型之一,其死亡率居高不下,主要原因在于确诊通常发生在疾病的晚期阶段,患者的五年生存率极低。胸部X光片作为一种低成本、低辐射的影像检查手段,广泛用于肺癌的初步检查。然而传统影像检查存在的问题在于,检测器官层叠导致的结构遮挡和肺结节(直径≤3厘米)的高复杂性,对影像诊断提出了严峻挑战。研究表明,多达40%的肺癌病例中,初次影像中已经存在病变,但因人工误读被忽视。

本研究旨在使用基于深度学习的算法构建一个自动化检测系统,解决现有计算机辅助检测系统(CAD)在肺病变检测中的局限性。研究目标包括开发高效检测含肺病变胸部X光片的神经网络模型,并解决训练过程中因标签的弱标记(weakly-labelled)或噪声问题导致的精度下降问题。

三、研究方法:

本研究的工作流程依次包括数据收集、自动化图像标注、模型设计与训练、性能评价,以及数据分析,其核心创新点在于结合弱标记数据和精确标注数据,通过视觉注意力反馈机制提升分类和定位性能。

数据收集:

研究团队收集了 Guy’s 和 St Thomas’ 医院从2005年至2016年储存的共计745,479份历史胸部X光片数据,其中包含DICOM格式的像素数据和对应的放射科报告。经过筛选和数据清理后,最终得到了430,067份胸部X光片及其对应报告,去除了16岁及以下儿童的检查数据。图像被统一缩放至448×448像素,以优化计算需求。

自动化标签生成:

通过自然语言处理(NLP)系统,提取放射科报告的内容生成训练数据标签。报告被分为三类:正常(101,766例)、含有病变(23,132例)以及其他影像学异常(305,169例)。为了进一步提升模型性能,研究者对部分含病变的X光片(约9%,2196例)进行了手动标注,由经验丰富的放射科医生绘制病变对应的边界框(bounding box)。

建模与训练算法:

本研究提出了两种神经网络架构,分别是Convolutional Neural Network with Attention Feedback(CONAF)与 Recurrent Attention Model with Attention Feedback(RAMAF)。

  1. CONAF模型的设计与实现

    • 总体架构:CONAF由卷积特征提取部分、分类模块和定位模块组成,借鉴了VGG13模型的结构。
    • 视觉注意反馈:模型通过高层卷积层生成显著性图(saliency maps),定位病变区域。通过结合弱标记数据和边界框的精确标注作为复合损失函数(hybrid loss),实现分类与定位任务的联合训练。
    • 训练参数与优化:使用Adadelta优化器,基于小批量数据进行迭代训练,其中弱标记数据与精确标注数据的输入比例被设定为80:20,以避免过拟合。
  2. RAMAF模型的设计与实现

    • 总体架构:RAMAF基于递归注意力模型(RAM),增强了注意力机制。模型通过逐步观察图像不同区域,线性累积信息,最后根据奖励信号优化决策。
    • 空间反馈奖励:对部分含标注的图像,RAMAF模型在计算分类奖励的同时引入了一种空间奖励机制,使得模型更高效地集中注意力到病变区域。
    • 训练优化:采用强化学习算法REINFORCE,通过跨时间的误差回传(Backpropagation Through Time)优化模型。
数据分析:

为了评估模型性能,研究设立了两个实验任务: 1. 分类任务:分别测试“病变 vs 正常”和“病变 vs 所有其他”的准确性。 2. 定位任务:评估病变区域的检测精准度及框选区域和真实边界框的重叠程度。

四、研究主要结果:

分类性能:
  • 在分类任务中,CONAF模型在“病变 vs 正常”中达到最高准确率85%,F1得分0.85;在更具挑战性的“病变 vs 所有其他”中,准确率为76%,F1得分为0.67,优于其他同类方法。
  • RAMAF模型也展现出明显优于标准RAM的性能,尤其在训练收敛速度上快5倍。
定位性能:
  • CONAF模型的病变区域检测灵敏度高达74%,且框选区域和真实病变区域重叠率达到45%,在检测小型肺结节(<10毫米)时表现尤为优秀。
  • RAMAF模型定位了约82%的标注区域,显著优于未引入空间奖励的RAM模型(55%)。
数据规模与标签噪声的鲁棒性:

本研究的数据规模远超以往相关研究,且CONAF和RAMAF在弱标记和含噪声的数据环境中展现出较高鲁棒性。

五、研究结论及价值:

本研究系统地验证了深度学习在胸部X光片肺病变自动检测中的可行性,特别是在利用包含弱标记和少量精准标注的数据的条件下。这种方法不仅提高了分类和定位的准确性,同时最大化利用了海量历史数据的价值。CONAF模型和RAMAF模型的提出为医学影像中复杂病变的检测奠定了算法基础。

其科学价值主要体现在: 1. 提供了一种新的视觉注意力机制,将肺病变检测的精度推向新高度。 2. 展示了大规模弱标记数据结合小规模精确标注在医学图像处理中的潜力。 3. 适用于实际中资源有限的医疗机构,为胸部X光片筛查的发展提供了重要支持。

六、研究亮点:

  1. 数据规模大:研究涵盖了超过43万例胸部X光片,构成世界最大同类研究样本。
  2. 创新点显著:通过结合弱标记与精确标注,设计了具有视觉反馈的深度学习架构。
  3. 多样性强:研究数据的图像来源多样(40多种设备),体现了不同硬件和患者群体的广泛适用性。

七、总结:

本研究有效将先进的深度学习技术应用于医学影像分析,尤其是在肺癌筛查场景中,具有重要意义。未来可以通过结合主动学习(active learning)等技术进一步优化模型性能,并探索在不同疾病影像中的推广应用潜力。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com