联邦学习中的针对性投毒攻击增强方法:BotPA框架的提出与评估
作者及发表信息
本研究的核心作者包括Shihua Sun(弗吉尼亚理工大学电气与计算机工程系)、Shridatt Sugrim(Kryptowire Labs)、Angelos Stavrou(弗吉尼亚理工大学)和Haining Wang(弗吉尼亚理工大学,IEEE Fellow)。研究成果发表于2025年的*IEEE Transactions on Information Forensics and Security*(Volume 20),论文标题为《Partner in Crime: Boosting Targeted Poisoning Attacks Against Federated Learning》,DOI编号为10.1109/TIFS.2025.3555429。
研究领域与动机
联邦学习(Federated Learning, FL)作为一种分布式机器学习范式,允许客户端在本地训练模型而无需共享原始数据,但其分布式特性也引入了新的安全威胁,尤其是针对性投毒攻击(Targeted Poisoning Attacks)。这类攻击旨在诱导模型将特定源类(Source Class)样本误分类为目标类(Target Class)。尽管现有防御机制(如Krum、Median、FLTrust等)能部分缓解攻击,但攻击效果仍受限于恶意客户端比例、防御策略及攻击能力。
科学问题
传统攻击仅关注源类与目标类的直接关系(如标签翻转),忽略了其他类别对决策边界的影响。本研究提出两个关键问题:
1. 如何识别对源类-目标类决策边界影响显著的其他类别(即中间类,Intermediate Classes)?
2. 如何通过标签篡改增强攻击效果,同时避免被检测?
研究目标
提出一种通用的预训练阶段增强框架BotPA(Boosting Targeted Poisoning Attacks),通过利用中间类的模型更新贡献,构造放大器集(Amplifier Set),并设计软标签(Soft Labels)篡改策略,以提升现有针对性投毒攻击的成功率(Attack Success Rate, ASR),同时保持隐蔽性。
BotPA包含以下核心步骤:
1. 源类标签篡改:恶意客户端将源类样本标签改为目标类。
2. 代理模型训练:攻击者利用本地污染数据训练一个集中式代理模型(Surrogate Model),模拟目标FL模型的行为。
3. 放大器集构建(Algorithm 1):
- 基于贡献度相似性(Input Similarity from Contribution Degrees)选择中间类,计算源类与其他类(排除目标类)的模型更新相似性:
[ \text{cs_contrib}(c_{\text{src}}, ci) = \frac{1}{n{c{\text{src}}} n{c_i}} \sum \frac{\nabla_w fw(x{\text{src}}) \cdot \nabla_w f_w(x_i)}{|\nabla_w fw(x{\text{src}})| |\nabla_w f_w(xi)|} ] - 选择相似性最高的前(n)个中间类,合并其样本构成放大器集。
4. 软标签设计(Algorithm 2):
- 基于潜在特征分布相似性(Input Similarity from Latent Feature Distributions),计算源类与中间类的特征空间余弦相似性:
[ \text{cs_ftrs}(c{\text{src}}, ci) = \frac{1}{n{c{\text{src}}} n{c_i}} \sum \frac{lw(x{\text{src}}) \cdot l_w(x_i)}{|lw(x{\text{src}})| |l_w(xi)|} ] - 若相似性为正,则将中间类标签改为目标类与原始类的凸组合(如(s{c_z} = \lambdaz e{\text{tgt}} + (1-\lambdaz) e{c_z})),否则保留原标签。
5. 标签篡改实施:在恶意客户端中,将放大器集样本标签替换为设计的软标签。
数据投毒攻击增强效果:
模型投毒攻击增强效果:
非独立同分布(Non-IID)数据场景:
理论分析:
科学价值:
应用价值:
方法创新:
实验全面性:
隐蔽性保障:
(全文约2200字)