分享自:

通过模型重编程进行无逆向触发的后门防御:REFINE方法

期刊:ICLR

关于ICLR 2025会议论文《REFINe: Inversion-Free Backdoor Defense via Model Reprogramming》的学术研究报告

本文是一项关于深度学习安全领域的重要原创性研究。以下是对该研究的全面介绍。

第一, 研究作者、机构与发表信息 本项研究的主要作者包括Yukun Chen, Shuo Shao, Enhua Huang, Yiming Li, Pin-Yu Chen, Zhan Qin, Kui Ren。作者们来自多个知名研究机构,包括浙江大学区块链与数据安全全国重点实验室、浙江大学杭州高新区(滨江)区块链与数据安全研究院、新加坡南洋理工大学以及IBM研究院。该研究已作为会议论文发表于机器学习领域的顶级会议——国际学习表征会议(ICLR)2025。

第二, 研究的学术背景 本研究聚焦于人工智能安全的核心领域,具体针对深度神经网络(Deep Neural Networks, DNNs)中的后门攻击(Backdoor Attacks)防御问题。随着深度学习模型在关键领域的广泛应用,其安全性受到严峻挑战。后门攻击是一种隐蔽的恶意攻击手段,攻击者通过在模型训练阶段植入特定的“触发器”(Trigger),使得模型在正常输入上表现良好,但在包含触发器的输入上会产生攻击者指定的错误输出,从而构成严重的安全威胁。

针对后门攻击,基于预处理(Pre-processing-based)的防御是重要范式之一。这类防御方法不修改预训练模型本身,仅在模型推理前对输入样本进行处理,具有实用性强、部署成本低的优点。现有的预处理防御主要分为两类:1)基于输入变换(Transformation-based)的防御,通过图像缩放、旋转或使用生成模型重构等方式破坏触发器模式;2)基于后门触发器逆向(Backdoor Trigger Inversion, BTI)的防御,试图逆向工程出攻击者植入的触发器模式,并据此净化输入。

然而,本研究团队通过深入分析发现,现有方法存在固有局限:基于输入变换的防御面临模型效用(Benign Accuracy, BA)与防御效果(Attack Success Rate, ASR)之间的权衡(Trade-off)。更强的变换虽能降低ASR,但会因同时破坏良性特征而导致BA显著下降。基于BTI的防御试图通过获取触发器信息来打破这一权衡,但由于缺乏关于后门的先验知识,准确逆向触发器本身极具挑战性,导致其防御效果受限。

基于此,本研究旨在解决一个关键问题:能否在不依赖触发器逆向的情况下,打破模型效用与防御效果之间的权衡? 研究的目标是提出一种新型、高效且无需逆向的后门防御方法。

第三, 研究的详细工作流程 本研究提出了一种名为REFINe(Reprogramming-based Inversion-Free Backdoor Defense)的防御方法。其核心思想借鉴了模型重编程(Model Reprogramming)技术,通过同时改变模型的输入域和输出域,为输入变换提供更大的灵活性,从而在彻底破坏后门模式的同时,保持模型对良性样本的分类能力。整个研究流程包含方法设计、理论分析、实验验证和对抗性评估等多个环节。

1. 方法设计与核心组件: REFINe方法主要由两个可训练的模块和一个损失函数构成: * 输入变换模块(Input Transformation Module, 𝒯): 本研究采用一个可训练的U-Net结构的自编码器作为输入变换模块。其作用是接收输入样本x,通过编码-解码过程生成变换后的样本x̃。该模块的目标是打乱输入样本中的特征(包括良性特征和后门特征),生成新的、按类别有序聚集的良性特征表示,从而有效消除潜在的触发器模式。与传统的模型重编程(如添加通用对抗扰动)不同,使用自编码器结构能更灵活、更彻底地操纵样本。 * 输出映射模块(Output Mapping Module, ℳ): 这是一个硬编码(Hard-coded)的模块,其功能是重新定义模型的输出域。具体而言,它实现了一个确定的一对一标签重映射函数,将原始模型的输出类别顺序进行随机打乱,映射到一个新的输出顺序。例如,原始模型输出“狗”的logits可能被重新映射为对应“猫”的最终预测。这一设计是关键创新,它解耦了输入变换的目标——变换后的样本不再需要被分类到其原始标签,而是被分类到重映射后的新标签。这极大地释放了输入变换模块的变换能力,使其可以更大幅度地改变输入而不必担心破坏分类一致性。 * 优化目标与损失函数: 为了指导输入变换模块的训练,研究者结合了两种损失函数:交叉熵损失(Cross-Entropy Loss, ℒ_ce)和监督对比损失(Supervised Contrastive Loss, ℒ_sup)。总损失为 ℒ_refine = ℒ_ce + λℒ_sup。 * 交叉熵损失(ℒ_ce): 用于保持模型在新输出域下的分类效用。由于防御者只能访问未标记的良性数据集,他们首先使用原始(可能被后门的)模型为这些样本生成伪标签(Pseudo-labels)。然后,训练输入变换模块,使得变换后的样本经过原始模型和输出映射模块后,其预测结果与伪标签一致。 * 监督对比损失(ℒ_sup): 此处的“监督”同样指伪标签。该损失函数强制同一类别的变换后样本在特征空间中彼此靠近,而不同类别的样本彼此远离。这有助于增强特征表示的区分度,进一步提升防御的鲁棒性。

2. 理论分析流程: 为了从理论上解释现有防御的局限并支撑REFINe的设计动机,研究者进行了严谨的理论推导。他们提出了定理1,该定理表明:对于一个K类分类模型f(·)和预处理方法𝒯(·),变换前后模型预测特征之间的期望距离 E∥f(x) - f(x̃)∥₂ 的上界,与变换前后特征表示的概率分布µ和µ̃之间的Wasserstein-1距离 W₁(µ, µ̃) 成正比。这意味着,如果固定输出域(即要求f(x) ≈ f(x̃)),那么W₁(µ, µ̃)就必须很小,从而限制了输入变换的幅度,导致了效用与防御的权衡。REFINe通过引入输出映射模块改变了输出域,使得f(x)无需与f(x̃)接近,从而允许W₁(µ, µ̃)增大,即允许更剧烈的输入变换来破坏后门,同时通过ℒ_ce在新的输出域下保持分类准确性。这为打破权衡提供了理论依据。

3. 实验验证流程: 研究进行了广泛且系统的实验来评估REFINe的有效性。 * 研究对象与设置: * 数据集与模型: 在CIFAR-10和ImageNet(50类子集)两个标准基准数据集上,使用ResNet-18作为主要的受害模型进行测试,并在附录中验证了在VGG16、DenseNet-121和Vision Transformer上的有效性。 * 攻击设置: 使用了7种具有代表性的先进后门攻击来评估防御,包括:BadNets(可见补丁)、Blended(混合隐形攻击)、WaNet(基于形变的隐形攻击)、PhysicalBA(物理世界攻击)、BATT(基于变换的触发器)、Label-Consistent(干净标签攻击)和Adaptive-Patch(自适应攻击)。这涵盖了从传统到现代、从可见到隐形、从数字到物理场景的多种攻击类型,确保了评估的全面性。 * 基线防御: 与两类预处理防御的先进方法进行比较。基于变换的防御包括:ShrinkPad、BDMAE、ZIP。基于BTI的防御包括:Neural Cleanse (NC)、UNICORN、BTi-DBF(P)。 * 评估指标: 采用后门防御领域的标准指标——良性准确率(BA,越高越好)和攻击成功率(ASR,越低越好)。

  • 实验过程与数据处理:
    1. 训练后门模型: 首先,使用上述各种攻击方法,在目标数据集和模型上训练出具有高BA和高ASR的后门模型。
    2. 训练REFINe防御模块: 对于每个被后门的模型,防御者仅访问一个与训练集同分布但未标记的良性数据集。在此数据集上,按照前述方法(固定输出映射,使用伪标签和组合损失)训练输入变换模块(U-Net)。
    3. 评估防御性能: 在测试集上,同时评估良性样本的BA和带触发器样本的ASR。输入样本依次通过训练好的𝒯、固定的后门模型ℱ和预定义的ℳ,得到最终预测。
    4. 消融研究(Ablation Study): 为了验证各组件的重要性,设计了对比实验:a) 移除硬编码重映射函数(w/o HRF);b) 移除监督对比损失(w/o SCL)。通过比较完整REFINe与这些变体的BA和ASR,分析每个组件的贡献。
    5. 对抗自适应攻击评估: 考虑一种更强的威胁模型,即攻击者完全知晓REFINe的防御流程。攻击者在训练后门模型后,可以模仿防御者的流程,使用一个随机初始化的输出映射模块和一个输入变换模块来对后门模型进行微调,试图使模型在防御下仍保持后门行为。研究者评估了REFINe对这种“知道防御策略”的自适应攻击的抵抗能力。

第四, 研究的主要结果 实验结果表明,REFINe在防御效果和模型效用方面均显著优于现有基线方法。

1. 主要性能对比结果: 如表1和表2所示,在CIFAR-10和ImageNet数据集上,面对所有7种攻击,REFINe均能成功地将ASR降低到3%以下(大多数情况下低于2%),同时保持了极高的BA。在CIFAR-10上,BA下降小于3%;在ImageNet上,BA甚至略有提升(研究者认为这是因为输入变换模块增加了模型的深度和容量)。相比之下,所有基线方法在多种攻击场景下均出现了失败案例(BA大幅下降或ASR > 10%)。例如,BDMAE对Blended和WaNet攻击的防御效果很差;BTi-DBF对Blended等隐形攻击的触发器逆向不准确,导致ASR仍然很高。这充分证明了REFINe在无需逆向触发器的情况下,有效打破了防御效用权衡,实现了通用且强大的防御。

2. 消融研究结果: 如表3所示,消融实验验证了各核心组件的必要性。 * 移除硬编码重映射函数(w/o HRF): 此时模型输出域固定,REFINe退化为类似传统变换防御的方法。结果显示,BA保持得很好,但ASR下降有限(例如对Blended攻击ASR仍高达75.30%)。这证实了固定输出域会导致变换能力受限,无法有效消除后门,重现了传统方法的权衡困境。 * 移除监督对比损失(w/o SCL): 仅使用交叉熵损失和输出重映射。结果显示,ASR可以降得很低,但BA出现了明显下降(例如在BadNets上BA从90.92%降至89.26%)。这表明,仅靠输出重映射和交叉熵损失,虽然能提供变换空间,但可能不足以在新的输出域中形成良好区分的特征簇,从而损害了分类精度。监督对比损失的加入有效地解决了这个问题。

3. 对抗自适应攻击的结果: 如表4所示,即使在攻击者知晓REFINe流程并进行针对性自适应训练的情况下,REFINe依然保持了强大的防御能力。经过自适应攻击训练的模型,其本身的BA会下降(因为同时优化原始任务和后门任务存在冲突),而REFINe防御后,其ASR仍然低于1.5%,BA下降也小于1.5%。这证明了REFINe的鲁棒性,因为防御者可以自由指定任意的输出映射函数并训练相应的输入变换器,攻击者很难预先完全匹配。

4. 对现有防御局限性的实证分析结果: 在研究前期(第3节),作者通过可视化实验(如图2、图3)直观展示了现有防御的局限。图2展示了随着变换强度(如ShrinkPad的填充大小、BDMAE的掩码比率)增加,ASR下降但BA也下降的权衡现象,并通过t-SNE特征可视化说明强变换导致良性样本特征质心发生偏移。图3展示了BTi-DBF在面对BadNets(可见触发器)和Blended(隐形触发器)攻击时,触发器逆向质量的巨大差异,后者逆向出的触发器与真实触发器相差甚远,导致净化失败。这些结果为提出新的解决方案提供了直接动机。

第五, 研究的结论与价值 本研究得出以下结论:REFINe是一种基于模型重编程的、无需触发器逆向的后门防御方法,它通过联合优化输入变换模块和输出映射模块,成功打破了传统预处理防御中模型效用与防御性能之间的固有权衡。理论分析和大量实验表明,该方法能有效抵御多种先进的后门攻击,包括针对已知防御的自适应攻击,同时在良性任务上保持高性能。

该研究的价值体现在: * 科学价值: 为后门防御研究提供了全新的视角。它跳出了“要么固定输出域做有限变换,要么冒险进行不准确的触发器逆向”的传统思路,创新性地通过改变输出域来释放输入变换的潜力。这为解决特征纠缠问题提供了一个有效的框架。 * 应用价值: REFINe具有很高的实用性。它不需要修改预训练模型的参数,仅需在推理前端添加轻量级的可训练模块,适用于第三方黑盒模型的防御场景。代码已开源,便于社区使用和验证。 * 观点贡献: 研究强调了输出域灵活性在防御中的重要性,并证明了结合对比学习可以进一步提升特征学习的质量以增强防御。

第六, 研究的亮点 1. 创新性的方法论: 首次将模型重编程思想系统性地应用于后门防御,提出了“输入变换+输出重映射”的联合优化框架,是解决预处理防御权衡问题的根本性创新。 2. 理论支撑与实践验证相结合: 不仅提出了新方法,还通过定理1从理论上解释了传统方法的局限和新方法的可行性,使工作更具深度和说服力。 3. 强大的实证效果: 在两大标准数据集、多种模型架构、七种代表性攻击(涵盖广泛类型)上进行了全面测试,结果一致且显著优于现有方法,证明了其通用性和鲁棒性。 4. 对自适应攻击的考量: 评估了方法在更强威胁模型下的有效性,显示了其在实际对抗环境中的潜力。 5. 详尽的消融分析: 通过控制变量实验,清晰揭示了输出重映射和监督对比损失各自的关键作用,加深了对方法机制的理解。

第七, 其他有价值的内容 * 论文附录包含了定理1的完整证明、REFINe优化过程的伪代码、详细的实验设置(如超参数、计算资源)、在更多模型架构(VGG16, DenseNet121, ViT)上的补充实验结果、关于不同规模未标记数据集和温度参数λ的敏感性分析等。这些内容为方法的可复现性和深入理解提供了充分支持。 * 作者在伦理声明中明确指出,REFINe是一种纯粹的防御性方法,旨在缓解后门威胁,不涉及任何新的攻击手段或人类主体研究,符合AI安全研究的伦理规范。 * 研究得到了中国国家重点研发计划和国家自然科学基金等项目的支持,体现了该工作的重要性。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com