分享自:

通过合成视觉-语言负样本来改进CLIP的组合推理能力

期刊:38th conference on neural information processing systems (neurips 2024)

类型a

这篇研究由Maitreya Patel、Abhiram Kusumba、Sheng Cheng和Changhoon Kim等人完成,他们均来自亚利桑那州立大学(Arizona State University),部分合作者来自马里兰大学巴尔的摩县分校(University of Maryland, Baltimore County)。该研究将在2024年的NeurIPS会议上发表。

本研究主要涉及计算机视觉与自然语言处理交叉领域的多模态学习。近年来,像CLIP这样的大规模视觉-语言模型通过对比学习显著提升了跨模态表征能力。然而,这些模型在组合推理(compositional reasoning)方面仍存在不足,表现为难以区分类似“灯泡在草地上”和“草在灯泡中”的表达。这种局限性源于训练数据集中缺乏多样化的组合样本以及优化目标的问题。为了解决这一问题,本研究提出了一种新的预训练策略——TripletCLIP,通过生成高质量的负样本对(包括文本和图像)来增强模型的组合推理能力。

研究的主要流程分为以下几个步骤:
1. 生成硬负样本:首先,研究团队利用大型语言模型(LLM)生成硬负文本描述。这些描述基于原始正样本进行语义调整,例如将“棕色马”改为“蓝色马”。接着,使用预训练的文本到图像扩散模型(如SDXL-Turbo)生成与这些硬负文本对应的图像。最终,构建了一个包含1300万图像-文本对的数据集(tripletdata),用于补充CC3M和CC12M数据集。
2. 设计三元组对比学习策略:研究提出了一个新的三元组对比损失函数(triplet contrastive loss),交替利用正样本对和硬负样本对进行训练。具体而言,模型不仅最小化正样本间的距离,还最大化正样本与硬负样本之间的距离。
3. 实验验证:研究在多个基准数据集上评估了TripletCLIP的性能,包括SugarcREPE(组合推理)、Flickr30K和MSCOCO(图像-文本检索)以及ImageNet1K(零样本分类)。此外,研究还进行了多种消融实验,以验证不同模块的有效性,例如硬负样本的质量过滤、不同模态编码器的作用等。

研究的主要结果如下:
1. 在SugarcREPE基准测试中,TripletCLIP相较于LaCLIP和NegCLIP分别取得了9.4%和6.31%的绝对提升。这表明硬负样本对能够显著提高模型的组合推理能力。
2. 在图像-文本检索任务中,TripletCLIP在MSCOCO和Flickr30K数据集上的R@5指标分别提升了8%和10%以上,超过了所有基线模型。
3. 在零样本分类任务中,TripletCLIP在ImageNet1K数据集上的Top-1和Top-5准确率分别提升了3%和5-7%。
4. 消融实验显示,仅使用硬负图像无法显著提升性能,而结合硬负文本和图像则能取得最佳效果。此外,视觉编码器在组合推理中的作用比文本编码器更为关键。

本研究的结论是,通过引入高质量的硬负样本对并采用三元组对比学习策略,可以显著提升视觉-语言模型的组合推理能力。这种方法不仅在组合推理任务中表现出色,还在零样本分类和图像-文本检索任务中取得了优异的成绩。研究的价值在于提供了一种高效且可扩展的预训练策略,能够在不增加数据量的情况下提升模型性能。此外,研究还展示了合成数据在多模态学习中的潜力,为未来的研究提供了新方向。

研究的亮点包括:
1. 提出了TripletCLIP方法,首次同时利用硬负文本和硬负图像进行训练,解决了传统方法中仅依赖文本负样本的局限性。
2. 构建了一个高质量的三元组数据集(tripletdata),为多模态学习提供了宝贵的资源。
3. 实验结果表明,即使在较小的数据规模下,TripletCLIP也能取得显著的性能提升,降低了对大规模数据的依赖。

此外,研究还探讨了硬负样本生成的具体方法,例如如何利用LLM生成语义准确的负文本描述,以及如何通过扩散模型生成逼真的负图像。这些技术细节为后续研究提供了重要参考。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com