分享自:

利用中毒样本的敏感性实现有效的后门防御

期刊:36th conference on neural information processing systems (NeurIPS 2022)

基于中毒样本敏感性的有效后门防御研究学术报告

本研究由清华大学深圳国际研究生院的Weixin Chen和Haoqian Wang,以及香港中文大学(深圳)数据科学学院的Baoyuan Wu(通讯作者)共同完成。该研究论文《Effective Backdoor Defense by Exploiting Sensitivity of Poisoned Samples》发表于第36届神经信息处理系统大会(NeurIPS 2022)。

一、学术背景

该研究隶属于机器学习安全领域,具体针对深度神经网络训练中的数据投毒后门攻击(Poisoning-based backdoor attack)防御问题。随着深度学习对大规模数据的需求增长,从不可信的第三方来源获取训练数据变得普遍,这带来了严重的安全威胁。攻击者可以通过恶意修改(即“投毒”)少量训练样本(如添加特定触发器并将样本标签改为目标类别),使得训练出的模型在正常样本上表现良好,但对包含该触发器的任何样本都错误地预测为目标类别,从而在模型中植入“后门”。

现有的后门防御方法主要分为两类:1)从零开始训练安全模型(Secure Training),2)对已植入后门的模型进行后门移除(Backdoor Removal)。前者研究工作较少,核心挑战在于如何在训练前或训练中区分出中毒样本和干净样本;后者通常依赖对已后门模型的特征空间分析或神经元特性进行净化。本研究旨在弥补当前防御方法的不足,尤其是提供一种能够精准区分中毒样本的通用机制,并在此基础上构建两种高效的防御范式。

二、研究流程与详细方法

本研究遵循严谨的“现象观察 -> 原理探索 -> 指标提出 -> 方法设计 -> 实验验证”的工作流程。

步骤一:核心现象观察与原理分析 研究人员首先在一个已被植入后门的模型上观察到一个关键现象:中毒样本的特征表示对图像变换(如旋转)比干净样本敏感得多。他们通过t-SNE可视化技术展示了这一现象:在变换前,中毒样本(尽管来自不同源类别)在特征空间中被触发器的表征所主导,聚集在一起;而在经过轻微变换后,这种聚集现象消失,中毒样本的特征分散到其各自源类别的干净样本附近。这一观察结果支持了研究人员的猜想:后门模型对跨样本相对一致的触发器产生了过拟合(overfitting),导致触发器信息主导了中毒样本的特征,而变换破坏了这种过拟合的、脆弱的触发器表征,从而暴露了其内在对象信息。

步骤二:提出敏感性度量指标——面向变换的特征一致性 基于上述观察,研究者定义了一个简洁而有效的敏感性度量指标,称为“面向变换的特征一致性”(Feature Consistency towards Transformations, FCT)。对于一个给定的样本$x$、一组变换$\tau$(如旋转、仿射变换)以及一个后门模型的特征提取器$f_{\theta_e}$,FCT值定义为原始特征与变换后特征之间的$L2$距离:$\Delta{\text{trans}}(x; \tau, f_{\thetae}) = |f{\thetae}(x) - f{\theta_e}(\tau(x))|2^2$。$\Delta{\text{trans}}$值越大,表明样本对变换越敏感,越可能是中毒样本。实验显示,在中毒和干净样本的FCT值分布直方图上,两者存在显著差异,界限清晰。

步骤三:构建样本区分模块 利用FCT指标,研究者设计了样本区分模块。具体流程为:1)使用不可信训练集,通过标准监督学习(训练少量轮次)快速得到一个初始的后门模型。2)计算训练集中每个样本的$\Delta_{\text{trans}}$值。3)根据预设的比例参数$\alpha_c$和$\alphap$,将$\Delta{\text{trans}}$值最小的底部$\alpha_c$%(如20%)样本划分为高置信度的干净样本子集$\hat{D}c$,将$\Delta{\text{trans}}$值最大的顶部$\alpha_p$%(如5%)样本划分为高置信度的中毒样本子集$\hat{D}_p$,其余为不确定样本子集$\hat{D}_u$。

步骤四:设计两种防御方法 基于上述区分能力,研究者提出了两种防御方法,分别对应两种防御范式。

方法一:区分与安全训练(D-ST)——用于从零训练安全模型 该方法包含一个两阶段的安全训练模块。 1. 阶段一:通过半监督对比学习训练特征提取器。这是本研究的创新点之一。不同于已有方法(如DBD)完全丢弃标签进行无监督对比学习,也不同于直接使用所有(包含中毒)标签的监督对比学习,D-ST利用SD模块区分的样本信息,提出了一种半监督对比学习损失函数$L_{ss-ctl}$。该损失函数包含两部分:对于$\hat{D}_p \cup \hat{D}u$中的样本,使用标准的对比学习损失$\ell{ctl}$,拉近同一张图像两个不同增广版本的特征;对于$\hat{D}c$中的干净样本对,使用监督对比学习损失$\ell{s-ctl}$,不仅拉近同一图像的两个增广版本,还拉近同一类别内不同干净图像的增广版本的特征。这使得特征提取器能够充分利用已确认的干净样本的类别信息,同时避免中毒标签的污染,学习到更具区分性且不受后门干扰的特征表示。 2. 阶段二:通过混合交叉熵损失训练分类器。在获得安全的特征提取器后,训练分类器$h_{\thetac}$。损失函数为混合交叉熵损失$L{mce}$,其同样利用了SD模块的区分结果:第一项是标准交叉熵损失,作用于$\hat{D}_c$中的干净样本,确保分类准确性;第二项是负交叉熵损失,作用于$\hat{D}_p$中的中毒样本,权重为$\lambda_p$,其作用是促使模型“遗忘”对这些中毒样本的预测,从而削弱触发器与目标类别之间的错误关联。

方法二:区分与后门移除(D-BR)——用于净化已后门模型 该方法包含一个后门移除模块,采用迭代式的“遗忘-再学习”算法。 1. 遗忘步骤:基于SD模块识别出的中毒样本子集$\hat{D}p$,通过最小化损失函数$L{unlearn} = \frac{1}{|\hat{D}p|} \sum{(x,y) \in \hat{D}p} \log[g\theta(x)]_y$,使模型降低对这些样本的预测置信度,从而“抹去”触发器与目标类别的关联。 2. 再学习步骤:在遗忘步骤后,模型的干净样本准确率可能受损。因此,紧接着基于SD模块识别出的干净样本子集$\hat{D}c$,通过最小化标准交叉熵损失$L{relearn}$,对模型进行“再训练”,以恢复其在干净样本上的性能。 这两个步骤在每个迭代轮次中交替进行(各执行一个epoch),直至收敛。这种交替策略避免了单纯遗忘导致性能下降,或单纯再学习无法移除后门的问题。

步骤五:广泛实验验证 1. 实验设置:在CIFAR-10、CIFAR-100和ImageNet子集三个基准数据集上,评估了针对8种典型后门攻击(涵盖补丁、混合、样本特定、干净标签等不同类型)的防御效果。基线模型包括6种最先进的防御方法。 2. 数据处理与样本量:所有攻击的投毒率均设置为10%。在需要额外干净数据的方法对比中,仅提供1%的干净训练数据。对于D-ST和D-BR,使用的比例参数为$\alpha_c = 20\%$, $\alpha_p = 5\%$,变换集$\tau$包括旋转和仿射。 3. 评价指标:使用干净样本准确率和攻击成功率(触发器样本被误判为目标类的比例)。

三、主要结果

  1. FCT指标的区分有效性:实验表明,FCT指标在大多数情况下能以接近100%的精度区分干净和中毒样本。如图3(论文)所示,在BadNets和Blend攻击下,两类样本的FCT值分布存在显著分离。
  2. D-ST方法(安全训练范式)的优越性:如表1所示,在CIFAR-10和CIFAR-100上,D-ST方法在维持高干净准确率(CIFAR-10平均91.66%,CIFAR-100平均67.79%)的同时,将攻击成功率降至极低水平(CIFAR-10平均1.21%,CIFAR-100平均0.05%)。显著优于基线方法(如Baseline1准确率低,Baseline2攻击成功率高)及现有方法DBD。
  3. D-BR方法(后门移除范式)的优越性:如表2所示,在CIFAR-10和CIFAR-100上,D-BR在几乎所有攻击下都能将攻击成功率降至接近0%(CIFAR-10平均0.31%,CIFAR-100平均0.07%),同时保持与原始后门模型几乎同等水平的干净准确率(CIFAR-10平均92.42% vs 92.46%),全面超越了FT、ANP、NAD、MCR、ABL等五种先进方法。在ImageNet子集上的实验(附录)同样证明了其有效性。
  4. 模块消融研究结果
    • SD模块:将FCT替换为其他指标(如谱签名、对称交叉熵损失、梯度上升损失)后,防御性能显著下降或失效。如图4所示,仅FCT指标能在所有测试的攻击类型上实现稳定且极低的攻击成功率。
    • BR模块:图5显示,单纯的“遗忘”会导致准确率持续下降,“再学习”则无法降低攻击成功率,而二者交替的算法能稳定地同时达到高准确率和低攻击成功率。
    • ST模块:表3证明了半监督对比学习(SS-CTL)的有效性。相比于无监督对比学习(CTL)导致准确率损失,以及监督对比学习(S-CTL)在干净标签攻击下导致高攻击成功率,SS-CTL取得了最佳平衡。图6则验证了混合交叉熵损失中$\lambda_p$参数的作用,显示加入负交叉熵损失项能有效抑制后门,但权重不宜过大。

四、结论与价值

本研究得出的核心结论是:深度神经网络中的后门模型对触发器存在过拟合,这导致中毒样本的特征表示对图像变换高度敏感。基于此现象提出的FCT指标是一种通用、高效的区分中毒样本的工具。

研究的科学价值在于: 1. 揭示了后门攻击在模型内部表征层面的一个新特性(敏感性/过拟合),深化了对后门机制的理解。 2. 提出了一个简单而强大的敏感性度量指标(FCT),为后门检测和防御研究提供了新的思路和基线工具。 3. 设计了两种创新的防御方法(D-ST和D-BR),它们都基于FCT指标构建的样本区分模块,分别针对两种主要的防御范式,展示了将基础发现转化为有效解决方案的完整路径。

应用价值在于:D-ST和D-BR方法在不需要额外干净数据(或仅需极少)的前提下,能够有效抵御多种类型(包括复杂且隐蔽的样本特定、干净标签攻击)的后门威胁,显著提升了在不可信数据源上训练深度模型的安全性。所提出的模块(如SD、SS-CTL)也具备与其他防御方法结合的灵活性。

五、研究亮点

  1. 重要的发现:首次系统性地发现并验证了中毒样本在后门模型中的特征敏感性现象,并将其归因于模型对触发器的过拟合。这一发现是后续所有方法创新的基石。
  2. 方法的创新性
    • FCT指标:概念简单,计算高效,且对多种攻击具有普适的区分能力。
    • 半监督对比学习(SS-CTL):创造性地将样本区分结果融入对比学习框架,解决了安全训练中如何利用标签信息的难题。
    • 交替式遗忘-再学习(BR):设计了一种稳定、高效的模型净化流程,避免了单一操作的副作用。
  3. 评估的全面性与严谨性:在三个数据集上对抗八种代表性攻击,与六种SOTA方法进行对比,并进行了详尽的消融实验,充分证明了方法的有效性和鲁棒性。
  4. 框架的完整性:从现象观察到理论分析,再到指标设计和方法构建,最后进行广泛验证,形成了一个逻辑自洽、结构完整的防御研究范例。

六、其他有价值内容

附录部分提供了丰富的补充信息,包括:详细的算法伪代码、半监督对比学习的更多细节、完整的实验配置参数、在ImageNet上的完整结果、关于变换类型$\tau$、比例参数$\alpha_c/\alpha_p$、投毒率、模型架构和特征维度等因素的敏感性分析,以及两种方法的时间和空间复杂度分析。这些内容为复现研究、深入理解方法细节以及探索扩展应用提供了重要参考。特别是附录中的扩展实验表明,该方法在不同设置下均能保持稳定性能,进一步增强了其可靠性。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com