由 Emanuele Pesce、Samuel Joseph Withey、Petros-Pavlos Ypsilantis、Robert Bakewell、Vicky Goh 和 Giovanni Montana 等联合完成的研究《Learning to Detect Chest Radiographs Containing Pulmonary Lesions Using Visual Attention Networks》,发表于期刊《Medical Image Analysis》,2019年第53卷(页码26-38)。本研究主要由 King’s College London(英国伦敦国王学院)、Guy’s & St Thomas’ NHS Foundation Trust(伦敦国民医疗服务体系信托)以及 Imperial College Healthcare NHS Trust(伦敦帝国学院医疗信托)合作完成。
肺癌是全球范围内最常见的癌症类型之一,其死亡率居高不下,主要原因在于确诊通常发生在疾病的晚期阶段,患者的五年生存率极低。胸部X光片作为一种低成本、低辐射的影像检查手段,广泛用于肺癌的初步检查。然而传统影像检查存在的问题在于,检测器官层叠导致的结构遮挡和肺结节(直径≤3厘米)的高复杂性,对影像诊断提出了严峻挑战。研究表明,多达40%的肺癌病例中,初次影像中已经存在病变,但因人工误读被忽视。
本研究旨在使用基于深度学习的算法构建一个自动化检测系统,解决现有计算机辅助检测系统(CAD)在肺病变检测中的局限性。研究目标包括开发高效检测含肺病变胸部X光片的神经网络模型,并解决训练过程中因标签的弱标记(weakly-labelled)或噪声问题导致的精度下降问题。
本研究的工作流程依次包括数据收集、自动化图像标注、模型设计与训练、性能评价,以及数据分析,其核心创新点在于结合弱标记数据和精确标注数据,通过视觉注意力反馈机制提升分类和定位性能。
研究团队收集了 Guy’s 和 St Thomas’ 医院从2005年至2016年储存的共计745,479份历史胸部X光片数据,其中包含DICOM格式的像素数据和对应的放射科报告。经过筛选和数据清理后,最终得到了430,067份胸部X光片及其对应报告,去除了16岁及以下儿童的检查数据。图像被统一缩放至448×448像素,以优化计算需求。
通过自然语言处理(NLP)系统,提取放射科报告的内容生成训练数据标签。报告被分为三类:正常(101,766例)、含有病变(23,132例)以及其他影像学异常(305,169例)。为了进一步提升模型性能,研究者对部分含病变的X光片(约9%,2196例)进行了手动标注,由经验丰富的放射科医生绘制病变对应的边界框(bounding box)。
本研究提出了两种神经网络架构,分别是Convolutional Neural Network with Attention Feedback(CONAF)与 Recurrent Attention Model with Attention Feedback(RAMAF)。
CONAF模型的设计与实现:
RAMAF模型的设计与实现:
为了评估模型性能,研究设立了两个实验任务: 1. 分类任务:分别测试“病变 vs 正常”和“病变 vs 所有其他”的准确性。 2. 定位任务:评估病变区域的检测精准度及框选区域和真实边界框的重叠程度。
本研究的数据规模远超以往相关研究,且CONAF和RAMAF在弱标记和含噪声的数据环境中展现出较高鲁棒性。
本研究系统地验证了深度学习在胸部X光片肺病变自动检测中的可行性,特别是在利用包含弱标记和少量精准标注的数据的条件下。这种方法不仅提高了分类和定位的准确性,同时最大化利用了海量历史数据的价值。CONAF模型和RAMAF模型的提出为医学影像中复杂病变的检测奠定了算法基础。
其科学价值主要体现在: 1. 提供了一种新的视觉注意力机制,将肺病变检测的精度推向新高度。 2. 展示了大规模弱标记数据结合小规模精确标注在医学图像处理中的潜力。 3. 适用于实际中资源有限的医疗机构,为胸部X光片筛查的发展提供了重要支持。
本研究有效将先进的深度学习技术应用于医学影像分析,尤其是在肺癌筛查场景中,具有重要意义。未来可以通过结合主动学习(active learning)等技术进一步优化模型性能,并探索在不同疾病影像中的推广应用潜力。