分享自:

使用3D多任务网络确定磨玻璃结节的侵袭性

期刊:European RadiologyDOI:10.1007/s00330-021-07794-0

本文档属于类型a,即一篇关于单次原创研究的学术论文。以下是针对该论文的详细报告:

主要作者与机构

本研究的作者包括Ye Yu、Na Wang、Ning Huang、Xinglong Liu、Yuanjie Zheng、Yicheng Fu、Xiaoqian Li、Huawei Wu、Jianrong Xu和Jiejun Cheng。研究团队主要来自上海交通大学医学院附属瑞金医院放射科、商汤科技研究院以及山东师范大学信息科学与工程学院。该论文于2021年3月4日在线发表在《European Radiology》期刊上。

学术背景

本研究的主要科学领域是医学影像学与人工智能的结合,特别是深度学习在肺癌诊断中的应用。肺癌是全球癌症相关死亡的主要原因,其中腺癌占所有肺癌的近40%。随着高分辨率计算机断层扫描(CT)和低剂量CT筛查项目的广泛应用,越来越多的早期肺腺癌表现为磨玻璃结节(ground-glass nodules, GGNs)。GGNs在CT上表现为肺部模糊的衰减,不会掩盖支气管和血管边缘。根据2011年提出的肺腺癌分类,腺癌被分为非典型腺瘤样增生(atypical adenomatous hyperplasia, AAH)、原位腺癌(adenocarcinoma in situ, AIS)、微浸润腺癌(minimally invasive adenocarcinoma, MIA)和浸润性腺癌(invasive adenocarcinoma, IA)。AAH、AIS和MIA的预后较好,而IA的5年生存率约为49-84%。因此,准确判断GGNs的浸润性对选择手术方式和患者预后至关重要。

本研究的目的是利用3D多任务深度学习网络来确定GGNs的浸润性,以辅助医生选择需要手术的患者及合适的手术方式。

研究流程

本研究的主要流程包括数据集构建、图像预处理、多任务网络设计与训练、模型验证与对比分析。

  1. 数据集构建
    研究回顾性分析了2015年9月至2019年6月期间770名患者的909个GGNs的薄层CT扫描数据。患者被分为训练集(n=626)和测试集(n=144)。所有GGNs均经过CT引导的经皮定位,并进行了病理学确认。排除标准包括结节直径小于3毫米或大于30毫米、接受过化疗或放疗、未进行CT引导定位以及无病理学确认的结节。

  2. 图像预处理
    CT图像被裁剪为体素强度范围[-1024, 400],并量化为灰度图像。通过三线性插值将体数据调整为1毫米×1毫米×1毫米的间距,并将值转换为[-1, 1]范围。

  3. 多任务网络设计与训练
    研究提出了一种基于3D多任务学习的新架构,用于判断GGNs的浸润性。网络包括分类和分割两个分支,分别学习全局和区域特征。共享子网络结合了卷积、批归一化(batch normalization, BN)、修正线性单元(ReLU)和密集连接块来提取多层次特征。分类分支使用softmax损失和中心损失进行优化,分割分支使用基于Dice系数的损失函数。网络在8个NVIDIA GeForce GTX Titan X GPU上使用Python 3.7和PyTorch库进行训练,优化器为随机梯度下降(stochastic gradient descent, SGD),学习率为1e-4,迭代次数为60,000次。

  4. 模型验证与对比分析
    在测试集中,模型将GGNs的浸润性分为三类:AAH/AIS、MIA和IA,并进行了二元分类(AAH/AIS/MIA vs. IA)。结果与两名胸科放射科医生的视觉评估进行了对比。评估指标包括敏感性、特异性、准确性、F1分数、加权平均F1分数(F1avg)和Matthews相关系数(MCC)。

主要结果

  1. 三分类任务
    在测试集中,3D多任务模型的准确性为64.9%,敏感性为65.41%,特异性为82.21%。AAH/AIS、MIA和IA的ROC曲线下面积(AUC)分别为0.83、0.71和0.89。

  2. 二元分类任务
    在二元分类任务中,3D多任务模型的准确性为87.42%,敏感性为69.57%,特异性为95.24%,AUC为0.89。与两名放射科医生的视觉评估相比,模型的表现优于资深放射科医生(准确性81.35%)和初级放射科医生(准确性61.66%)。

  3. 模型对比
    3D多任务模型在三分类和二元分类任务中的表现均优于仅使用3D VGG网络的基线模型。特别是在二元分类任务中,模型的AUC值显著高于基线模型(0.89 vs. 0.86)。

结论

本研究表明,提出的3D多任务深度学习模型在判断GGNs浸润性方面表现良好,能够辅助医生选择需要手术的患者及合适的手术方式。该模型通过学习CT图像的全局和区域特征,提高了分类的准确性和可靠性,特别是在区分浸润性腺癌(IA)和非浸润性病变(AAH/AIS/MIA)方面表现突出。

研究亮点

  1. 重要发现
    3D多任务深度学习模型在GGNs浸润性分类任务中表现优异,特别是在二元分类任务中,其准确性和AUC值均高于放射科医生的视觉评估。

  2. 方法创新
    本研究提出了一种结合分类和分割分支的3D多任务网络,能够同时学习CT图像的全局和区域特征,显著提高了模型的分类性能。

  3. 研究对象的特殊性
    本研究仅纳入了经过CT引导经皮定位的GGNs,确保了数据的高质量和病理学确认的准确性。

其他有价值的内容

本研究还讨论了模型在临床中的应用潜力,特别是在术前定位和手术规划中的作用。通过准确判断GGNs的浸润性,模型可以帮助医生选择合适的手术方式,缩短手术时间,改善患者预后。此外,研究还指出了模型的局限性,包括数据不平衡和缺乏外部验证数据集,建议未来在更多机构中进行验证以评估模型的通用性。

本研究为GGNs的浸润性判断提供了一种高效、准确的深度学习解决方案,具有重要的科学价值和临床应用前景。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com