分享自:

基于模型变异测试的语言模型后门样本检测

期刊:IEEE Transactions on Information Forensics and SecurityDOI:10.1109/TIFS.2024.3376968

针对语言模型的后门样本检测:一种基于模型变异测试的防御方法学术报告

本文旨在向学术界同仁介绍一项发表于2024年《IEEE Transactions on Information Forensics and Security》(第19卷)的重要研究成果。该研究由西安交通大学智能网络与网络安全教育部重点实验室的Jiali Wei(魏佳丽)、Ming Fan(范铭)、Wenjing Jiao(焦文静)、Wuxia Jin(金武霞)及IEEE会员Ting Liu(刘烃)共同完成。论文标题为《BDMMT: Backdoor Sample Detection for Language Models through Model Mutation Testing》。这项工作针对自然语言处理(NLP)领域预训练语言模型日益严峻的后门攻击安全威胁,提出了一种新颖、高效的防御框架。

一、 研究背景与目标

随着深度神经网络和人工智能的飞速发展,深度学习算法,特别是基于Transformer架构的预训练语言模型(如BERT、GPT-2等),已在文本分类、情感分析、问答系统等众多自然语言处理任务中取得卓越性能并广泛应用。然而,这些模型被证明容易受到后门攻击(Backdoor Attacks)的威胁。攻击者在模型训练阶段注入后门,使得含有特定触发模式(触发词)的输入样本(后门样本)在推理时被错误分类到攻击者指定的目标类别,而对干净样本则保持正常功能。这种隐蔽的恶意行为对模型在安全关键领域的可靠部署构成了严重挑战。

近年来,文本领域的后门攻击研究不断演进,攻击手法从早期的非自然、非隐蔽的字符级、词语级、句子级触发器,发展到如今高度自然和隐蔽的触发器,如同形异义词替换、逻辑组合词、由语言模型生成的高度流畅句子,乃至最新的以抽象文本风格作为触发器的风格级攻击。这些先进的攻击方法在保持高攻击成功率的同时,极大增加了人工和传统自动化检测的难度。

相比之下,文本后门防御的研究则相对滞后。现有防御方法存在诸多局限性,例如:需要访问可能已被污染的原始训练数据、仅针对特定攻击级别(如词语级)有效、或对最新自然隐蔽攻击的防御效果有限。因此,开发一种不依赖训练数据、能有效应对多种(尤其是最新)攻击级别的通用防御机制,成为亟待解决的学术与实际问题。

本研究的核心目标正是解决上述挑战。研究者们从计算机视觉领域的防御思路中获得启发,观察到后门样本与干净样本在面对模型扰动时存在鲁棒性差异,且后门触发器具有一定的泛化性。基于此,他们提出了一种名为BDMMT的新型防御方法,其核心思想是:通过对预训练语言模型进行深度模型变异测试,利用后门样本与干净样本在变异模型集上表现出的预测稳定性差异,来有效检测输入中的后门样本。

二、 研究方法与详细流程

BDMMT方法是一个系统性的防御框架,主要包含四个核心步骤:目标模型重训练、变异模型生成、后门样本检测器构建以及在线检测。研究以广泛使用的BERT基模型作为代表性研究对象,在多个基准数据集上进行了验证。

第一步:目标模型重训练 由于防御者无法获知攻击者使用的具体后门触发器信息,BDMMT采取了一种主动构造“自定义后门”的策略。对于待防御的(可能已被攻击的)目标语言模型M,防御者首先收集一小部分与任务相关的干净样本。然后,针对当前主要研究的三种后门攻击级别(字符级、词语级、句子级),防御者分别为每种级别随机选择一种典型的触发器形式作为自定义触发器。例如,字符级可能选择同形异义词替换,词语级可能选择一组常见的逻辑连接词,句子级可能使用一个预训练语言模型生成的流畅句子。利用这些自定义触发器和干净样本,研究者生成中毒数据,并以此对原始目标模型M进行重新训练,从而得到三个注入了不同级别自定义后门的重训练模型。对于风格级攻击,则随机选择一种文本风格(如诗歌体)作为自定义触发器进行重训练。这一步骤的关键在于,即使目标模型本身已含有攻击者的后门,重训练后模型将同时包含攻击者后门和自定义后门。研究表明,相同类型的后门具有相似的属性,这为后续检测提供了基础。

第二步:变异模型生成 这是BDMMT方法的核心创新环节。研究者对每个重训练后的模型,应用深度模型变异操作,随机生成一组(数量为n)变异模型。他们采用了模型级别的变异算子,直接修改模型权重或神经元,而非重新训练,以降低开销。具体使用的算子包括:高斯模糊、权重洗牌、神经元效应阻断、神经元激活反转、神经元切换、层失活等。在实验中,研究者针对BERT模型的线性单元(编码器层)进行变异,保持嵌入层和分类层不变,变异率设置为经验值(如0.03, 0.05)。通过大量预实验,他们确定了用于检测不同攻击级别的最有效变异算子组合:对于字符级攻击,使用神经元切换(NS)算子,变异率0.03;对于词语级攻击,使用神经元激活反转(NAI)算子,变异率0.05;对于句子级攻击,使用神经元效应阻断(NEB)算子,变异率0.05。同时,他们通过实验确定生成100个变异模型(n=100)能在检测效果和计算开销之间达到良好平衡。

第三步:后门样本检测器构建 此步骤旨在训练一个能够自动区分后门样本和干净样本的二进制分类器(检测器D)。其输入特征是样本的“预测变化向量”。具体而言,对于一个输入样本x,分别计算其在某个重训练模型M_re及其100个变异模型上的预测概率。然后,计算样本x在M_re与每个变异模型之间的预测概率绝对值差,得到一个100维的向量,称为预测变化向量。该向量刻画了样本在面对模型随机扰动时的输出稳定性。 为了训练检测器D,研究者从防御者可获得的干净数据中,构造两类训练样本:1) 能够成功触发当前重训练模型中自定义后门的“自定义后门样本”;2) 能够被该重训练模型正确分类的“干净样本”。分别计算这两类样本的预测变化向量,并以其作为特征、以样本类别(后门/干净)作为标签,来训练一个深度神经网络分类器(如包含全连接层的简单网络)。对于防御字符、词、句三级的系统,需要分别基于三个重训练模型及其变异模型生成三组训练数据,最终训练一个统一的检测器。

第四步:在线后门样本检测 在模型部署的推理阶段,对于每一个输入的待分类文本样本x,BDMMT系统执行以下操作:首先,将x分别输入到三个重训练模型(对应三种攻击级别)中,并各自计算其对应的100维预测变化向量,得到三个向量。然后,将这任一向量输入到已训练好的检测器D中进行判断。如果任何一个向量被D判定为来自后门样本,则系统最终判定输入x为后门样本,并将其拦截,阻止其进入下游的目标模型进行分类。对于风格级攻击的防御,流程类似,但仅基于一个重训练模型及其预测变化向量进行判断。这种“或”逻辑确保了只要攻击者的后门类型与三种自定义后门之一匹配,其攻击样本就有很大概率被检测出来。

三、 主要实验结果与发现

研究者在三个基准数据集(IMDb, Yelp, AG News)上对字符级、词语级、句子级攻击进行了全面评估,并在三个风格迁移数据集(SST-2, Hate-Speech, AG News)上首次尝试了对风格级攻击的防御。评估指标包括检测率(DR,即真阳率)、误报率(FPR)、曲线下面积(AUC)和F1分数,并将BDMMT与三种先进的基线防御方法(STRIP-Vita, ONION, RAP)进行了对比。

针对研究问题RQ1(模型变异测试的有效性及参数选择):实验结果表明,模型变异测试能有效揭示后门样本与干净样本的鲁棒性差异。预实验确定了最佳变异模型数量为100,并筛选出了针对各级攻击最有效的变异算子与变异率组合(如前文所述)。这为整个防御系统的构建奠定了基础。

针对研究问题RQ2(对字符、词、句三级攻击的防御效果):BDMMT展现出卓越的检测性能。在字符级攻击上,在IMDb和Yelp数据集上实现了100%的检测率且误报率极低。在词语级攻击上,面对使用逻辑触发器的隐蔽攻击,BDMMT在所有数据集上的AUC值和F1分数均超过0.9,显著优于基线方法(ONION在此类攻击上虽有部分效果,但AUC最高仅0.883,F1分数0.819;而STRIP和RAP几乎无效)。在句子级攻击上,BDMMT的AUC和F1分数均大于0.965,而三种基线方法完全失效,凸显了BDMMT应对动态句子触发等高级攻击的有效性。此外,实验还验证了自定义触发器选择的随机性不影响BDMMT的整体防御效果,证明了方法的鲁棒性。

针对研究问题RQ3(对风格级攻击的防御效果):这是该研究的另一项重要贡献。实验显示,BDMMT能够对基于文本风格迁移的后门攻击提供相对有效的防御。在SST-2和AG News数据集上,针对不同风格(如圣经体、歌词体等)的攻击,BDMMT在大多数情况下能达到高于0.85的AUC和F1分数,而三种基线方法基本没有检测能力(AUC最高仅0.612)。尽管在Hate-Speech等数据质量较差的数据集上效果有所下降,但这首次证明了基于模型变异测试的思路对于这种抽象特征触发的攻击也具有防御潜力。

四、 研究结论与价值

本研究得出结论:BDMMT是一种新颖且高效的语言模型后门防御方法。它通过模型变异测试,成功利用了后门样本与干净样本在模型扰动下的固有鲁棒性差异,实现了对输入样本的实时检测与过滤。该方法无需访问可能不安全的训练数据,能够有效防御从字符级到句子级的主流后门攻击,并对最新的风格级攻击进行了成功的、开创性的防御尝试。

其科学价值在于:1) 将模型变异测试这一软件测试领域的经典思想,创造性地应用于深度学习安全领域,特别是NLP模型的后门防御,拓展了该技术的应用边界。2) 从理论上和实践上证实了后门触发器及相应神经元的泛化特性,为理解后门攻击的内在机理提供了新的视角。3) 提出了一套完整的、可操作的防御框架,涵盖了从离线准备(重训练、变异、检测器训练)到在线检测的全流程。

其应用价值在于:为依赖第三方预训练语言模型的用户提供了一种实用的安全增强工具。用户可以在获取模型后,利用自有的一小部分干净数据,部署BDMMT防御系统,从而在推理阶段主动拦截潜在的后门输入,提升模型在真实场景中的安全性和可靠性。

五、 研究亮点与特色

  1. 方法新颖性:首次将深度模型变异测试系统性地应用于文本领域后门样本检测,构思巧妙。
  2. 防御全面性:设计了一套能够覆盖字符、词语、句子三个主要攻击级别的统一防御机制,并通过“自定义后门”策略克服了攻击信息未知的难题。
  3. 前瞻性探索:率先尝试并验证了对最新、最隐蔽的风格级文本后门攻击的防御可行性,具有引领性。
  4. 强对抗性:在实验中选择了当前最先进、声称能绕过现有防御的后门攻击方法作为对手,并通过大量实验证明了BDMMT相对于STRIP、ONION、RAP等前沿防御方法的显著优势,结论具有说服力。
  5. 实用性考量:详细探讨了方法对大型语言模型(如LLaMA、GPT系列)的适用性及计算资源挑战,体现了研究的现实关怀。

六、 其他有价值内容

论文还对BDMMT的鲁棒性差异原理进行了直观阐释(如图3所示),指出后门攻击过度依赖于少数与触发器相关的神经元,使得后门样本在面对模型随机扰动时,只要这些关键神经元未被破坏,其预测就能保持稳定,从而表现出比依赖更多神经元协同工作的干净样本更高的鲁棒性。这一解释加深了对方法有效性的理解。同时,作者也坦诚讨论了方法的局限性,例如面对超大规模闭源模型(如GPT-4)时,模型变异操作可能因无法获取模型权重而受限,这为未来研究指明了方向——探索面向超大模型的高效变异或近似方法。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com