本文档属于类型a,即报告了一项原创性研究的学术论文。以下是针对该研究的详细学术报告:
本研究由Jinghuai Zhang(加州大学洛杉矶分校)、Hongbin Liu与Neil Zhenqiang Gong(杜克大学)、Jinyuan Jia(宾夕法尼亚州立大学)合作完成,发表于计算机视觉领域顶级会议CVPR(具体年份未明确提及,但根据上下文推断为2023年)。论文标题为《Data Poisoning Based Backdoor Attacks to Contrastive Learning》,开源版本由计算机视觉基金会(Computer Vision Foundation)提供。
研究领域:
本研究属于自监督学习(Self-Supervised Learning, SSL)与对抗机器学习(Adversarial Machine Learning)的交叉领域,聚焦于对比学习(Contrastive Learning, CL)框架下的数据投毒后门攻击(Data Poisoning Based Backdoor Attacks, DPBAs)。
研究动机:
对比学习通过无标签预训练数据学习通用编码器(encoder),但其依赖的数据增强机制(如随机裁剪)可能被攻击者利用。现有DPBAs(如SSL-Backdoor、PoisonedEncoder)存在两大局限:
1. 攻击成功率低:现有方法难以在复杂数据集(如ImageNet)上建立触发器(trigger)与目标类(target class)的强关联;
2. 依赖大量目标类样本:需数百张参考图像(reference images),实际攻击成本高。
研究目标:
提出新型攻击方法CorruptEncoder,通过理论优化毒化图像(poisoned images)生成策略,实现高攻击成功率(>90%)与低资源需求(仅需3张参考图像+0.5%投毒比例),并探索防御方案局部化裁剪(Localized Cropping)。
核心创新:通过理论分析优化毒化图像的布局参数,最大化随机裁剪视图中分别包含参考对象(reference object)与触发器的概率。具体步骤:
1. 参数定义:
- 参考对象尺寸((o_w, o_h))、背景图像尺寸((b_w, b_h))、触发器尺寸((l \times l));
- 布局模式:左-右(left-right)、右-左、上-下、下-上四种。
2. 理论优化(Theorem 1 & 2):
- 背景图像尺寸:宽度/高度约为参考对象的2倍((b_w \approx 2o_w)或(b_h \approx 2o_h));
- 参考对象位置:置于背景图像角落(如左-右布局中为((0,0)));
- 触发器位置:位于背景图像剩余区域的中心。
3. 生成算法:
- 随机选择参考对象与背景图像,按优化参数嵌入参考对象与触发器(Algorithm 1 & 2)。
针对参考对象特征可能偏离目标类簇的问题,引入支持毒化图像(support poisoned images):
- 通过拼接参考图像与支持参考图像(support reference images),优化特征相似性(公式4);
- 平衡两项损失:触发器-参考对象相似性、参考对象-目标类簇中心相似性。
(注:因篇幅限制,部分实验细节与附录内容未完全展开,可参考原文补充。)