分享自:

CLIP在医学影像中的应用:综述

期刊:arXiv

关于医学影像领域CLIP技术应用的综述报告

本报告旨在向广大研究人员介绍一篇由Zihao Zhao, Yuxiao Liu, Han Wu, Mei Wang, Yonghao Li, Sheng Wang, Lin Teng, Disheng Liu, Zhiming Cui, Qian Wang, Dinggang Shen等学者共同撰写,并于2025年发布在预印本平台arxiv上的系统性综述文章:《CLIP in Medical Imaging: A Survey》。该文章的核心主题是对对比语言-图像预训练范式在医学影像领域内的应用现状、技术挑战、优化策略以及实际临床任务应用进行一次全面而深入的梳理与展望。该文并非报告单一原创性研究,而是属于类型b:一篇系统性综述。以下将详细阐述该综述的核心观点、论证结构与学术价值。

综述主旨与结构概览 本文开宗明义地指出,对比语言-图像预训练作为一种简单而有效的预训练范式,成功地将文本监督引入视觉模型,因其出色的泛化性和可解释性在各个领域展现出巨大潜力。近年来,CLIP在医学影像领域的应用兴趣日益增长,它既可以作为图像-文本对齐的预训练范式,也能作为解决各类临床任务的关键组件。为了促进对这一前沿方向的深入理解,作者团队对医学成像领域内的CLIP相关研究进行了全面调查,涵盖超过200篇文献,并构建了一个多层次分类体系。综述的主体部分首先简要介绍了CLIP方法的基础原理,随后重点探讨了CLIP在医学影像领域预训练的适应性优化策略,继而深入分析了预训练CLIP模型在多种临床任务中的实际应用,最后讨论了现有局限性并提出了前瞻性的研究方向。

主要观点一:医学影像CLIP预训练面临独特挑战,需针对性优化,并由此衍生出三大技术路径。 作者指出,尽管CLIP在自然图像上取得了成功,但其范式直接应用于医学影像领域会遇到显著挑战,这主要源于医学数据的特殊性。文章将这些挑战归纳为三点:多尺度特征数据稀缺性对专业知识的超高需求

首先,医学影像与报告具有显著的多尺度特性。医学图像中,对诊断至关重要的病灶(如肺结节)可能仅占图像很小区域,而全局特征同样重要。同时,医学报告通常由多个句子组成,每个句子描述特定区域的发现(如图5示例),其复杂度和结构化程度远超自然图像描述。其次,相对于可轻松达到十亿级的自然图像-文本数据集,包含配对图像和报告的医学数据集(如MIMIC-CXR)规模相对有限,这与CLIP“数据饥渴”的特性相矛盾。再者,医学概念间存在复杂、专业的层级依赖关系(如图6所示的胸部X光临床发现依赖图),缺乏对这些领域知识的深入理解可能导致模型鲁棒性差,甚至学习到“捷径”解决方案。

针对这些挑战,综述将现有优化CLIP预训练的研究系统地分为三大类,并提供了详尽的代表性方法概览(表2): 1. 多尺度对比:这类方法旨在超越原始的全局图像-文本对齐,实现更精细的局部特征对齐。例如,Gloria 方法不仅进行全局对比,还通过计算单词与图像子区域之间的语义相似度,实现单词级别的局部文本-图像对比。后续的LOVT 等方法进一步改进,实现了对称的局部对齐(即图像到文本和文本到图像),并利用Transformer注意力机制自适应地加权不同局部特征的重要性。在体积成像(如CT)领域,FVLM 等方法利用专门的解剖结构分割工具(如TotalSegmentator)生成解剖级别的掩码,从而实现解剖级别的图像-文本对齐。 2. 数据高效对比:为解决数据稀缺问题,研究者从挖掘数据内在关联和补充信息两方面入手。MedCLIP 等方法注意到医学报告间存在显著的语义重叠(特别是正常病例),简单地将未配对报告视为负样本会导致“假阴性”问题。因此,它们通过构建报告间的语义相关性矩阵,将原始的“独热”优化目标替换为“软”目标。MGCA 则聚焦于疾病级别的样本间相关性,对患有相同疾病的样本进行跨模态对齐。数据挖掘方面,Biovil 等方法利用诊断报告中通常被忽视的“印象”部分,或通过随机打乱句子顺序来进行文本数据增强。 3. 显式知识增强:这类方法将外部医学知识(如统一医学语言系统UMLS)显式地整合到预训练过程中。增强可以发生在两个层面:个体层面,为每个报告构建实体-关系图,以阐明报告中医学实体间的因果关系(如图9a);领域层面,构建描述整个目标影像领域(如胸部X光)的知识图谱或描述性知识提示(如图9b)。例如,ARL 方法将报告转化为实体-关系图,并将图像和文本嵌入与知识嵌入对齐。MedKLIPKAD 等方法则提取并利用最常见的实体三元组作为领域级知识。知识通常通过辅助的知识编码器(如图神经网络或预训练的BERT模型)进行编码和融合。

主要观点二:预训练后的CLIP模型在多种临床任务中展现出强大的驱动能力,尤其在提升模型可解释性和解决复杂场景问题方面表现突出。 在完成适应性预训练或直接利用通用CLIP模型后,研究者将其应用于广泛的临床任务中。综述将这些应用分为三大类:分类密集预测跨模态任务(如图2所示)。

分类任务中,CLIP的应用主要沿着两条路径展开:零样本分类上下文优化。 * 零样本分类:旨在不进行微调的情况下,直接利用预训练CLIP模型中的知识进行诊断。核心在于提示工程。CheXzero 研究发现,对于多疾病诊断(患者可能同时患多种病),简单的多选一分类提示不适用,因此设计了针对每种疾病的“正/负提示对”(例如,“气胸” vs. “无气胸”)进行兼容性诊断(图10)。为进一步提升可解释性,Xplainer 方法不直接预测疾病,而是让模型先分类与特定疾病相关的描述性观察结果(如“深沟征”、“气管偏移”),然后联合这些观察结果的概率来估计最终疾病概率(图11),从而提供了诊断依据。 * 上下文优化:由于领域专用CLIP模型有限,许多研究致力于以参数和数据高效的方式,将通用CLIP模型适配到医学领域。例如,CLIP-Lung 针对肺结节恶性预测任务,提出了基于特征图通道信息的“通道条件提示”,相比传统方法能更好地适应医学图像特性(图12)。

密集预测任务(如检测、分割)中,CLIP及其变体(如GLIP、CLIPSeg)作为辅助工具,为临床决策提供关键区域信息。 * 检测GLIP 等模型被直接用于医学目标检测。AnomalyCLIP 则展示了CLIP在零样本异常检测中的能力,它使用对象无关的文本提示来捕获各种图像中“正常”与“异常”的本质,迫使模型更关注异常区域而非主要物体。 * 2D/3D分割:CLIP的视觉编码器被证明能有效提升医学图像分割性能。更具创新性的是其在解决部分标注通用分割问题上的应用。医学分割数据集通常只标注特定器官或病灶,其他结构被视为背景。Liu等人(2023g) 提出了一种CLIP驱动的通用分割模型(图13a),利用CLIP文本编码器将任务提示(如“肝脏”、“肝肿瘤”)编码为语义嵌入,取代传统多任务学习中正交的“独热”编码,来动态生成分割头。这种方法更好地建模了器官与病灶之间的语义关联(如肝脏与肝肿瘤),在复杂的多器官、多病灶分割任务上取得了优越性能,甚至能检测出被纯视觉模型忽略的小肿瘤(图13c)。

主要观点三:CLIP在跨模态任务(如图像-文本检索、报告生成、医学视觉问答)中同样扮演着关键角色,促进了多模态医学人工智能的发展。 综述指出,CLIP的图像-文本对齐能力天然适用于需要结合视觉和语言信息的任务。在医学视觉问答(MedVQA) 中,CLIP可用于提取高质量的图像和问题表示,作为VQA模型的强大编码器。在报告生成任务中,CLIP编码的图像特征可以作为条件,引导文本生成模型产生与图像内容一致的结构化报告。图像-文本检索则直接利用CLIP的跨模态相似性度量能力,实现医学图像与相关报告段落或诊断描述的快速匹配(表5列举了相关方法)。这些应用共同推动了能够理解和推理多模态医学信息的通用智能系统的建设。

主要观点四:当前医学影像CLIP研究仍存在局限性,未来应在数据、知识整合、评估、多语言及多模态对齐等方向进行深入探索。 在全面梳理现状后,作者在讨论部分(对应原文第6节)指出了该领域面临的几个关键局限性及未来方向: 1. 数据局限性:公开的大规模医学图像-文本对数据集仍然稀缺,且质量参差不齐(如报告与图像的对齐粒度、文本噪声)。未来需要构建更大规模、更高质量、覆盖更多模态和疾病的数据集。 2. 知识整合的深度与形式:当前的知识整合方法仍有提升空间。如何更自然、更深层次地将结构化医学知识(如病理生理学、解剖学)与预训练过程结合,是一个值得探索的方向。 3. 评估标准:需要建立更全面、更贴近临床实践的评估基准,不仅关注诊断精度,还要评估模型的可解释性、鲁棒性、公平性以及在实际工作流中的效用。 4. 多语言与领域泛化:大多数预训练模型基于英文数据,存在语言偏差。开发跨语言的医学视觉-语言模型,以及提升模型在不同医疗机构、不同扫描设备间的泛化能力至关重要。 5. 超越图像-文本的对齐:可以探索CLIP范式用于对齐其他形式的医学数据,例如将基因组学数据与病理图像对齐(如PathOmics 所做),或者将心电图与心脏MRI对齐(如Turgut等人(2025) 的工作),这为多模态融合诊断开辟了新途径。

综述的学术价值与意义 本文作为首篇专门针对医学影像领域CLIP技术的系统性综述,具有重要的学术价值和实践指导意义: 1. 系统性梳理与分类:作者团队检索并筛选了超过220篇相关文献,首次对该快速发展的领域进行了全景式描绘,并提出了清晰的技术分类框架(精炼CLIP预训练 vs. CLIP驱动应用),帮助读者快速把握技术脉络。 2. 深入的技术剖析:文章不仅罗列方法,更深入分析了医学影像应用CLIP所面临的根本性挑战(多尺度、数据少、知识深),并围绕这些挑战对现有技术进行了归因式阐述,使读者能理解各种技术方案的设计初衷与内在逻辑。 3. 连接技术与临床:综述高度重视CLIP在真实临床任务(分类、检测、分割、VQA等)中的应用价值,详细阐述了如何将预训练模型的能力转化为解决实际问题的工具,为临床AI研究人员提供了丰富的参考案例和实现思路。 4. 前瞻性指导:通过对现有局限性的深刻讨论和未来方向的提出,本文为后续研究指明了潜在突破口,有助于引导领域资源投向最具挑战性和价值的问题,避免重复性工作。 5. 资源汇总:文章提供了宝贵的公共医学图像-文本数据集列表(表1)和代表性方法对比表(表2),为初学者和研究人员提供了实用的资源导航。

这篇综述及时地总结了医学影像CLIP领域的研究进展,构建了清晰的知识体系,并展望了未来,对于推动可解释、知识驱动、高效通用的医学人工智能发展具有重要的参考价值和启发作用。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com