分享自:

使用对抗样本对联邦学习进行数据投毒攻击的研究

期刊:2022 International Conference on Computer Engineering and Artificial Intelligence (ICCEAI)DOI:10.1109/ICCEAI55464.2022.00041

本文档属于类型a,即单篇原创研究的学术报告。以下是针对该研究的详细学术报告:

主要作者及机构
本研究的主要作者包括Lei Shi、Zhen Chen、Yucheng Shi、Guangtao Zhao、Lin Wei、Yongcai Tao和Yufei Gao。他们分别来自郑州大学网络空间安全学院、嵩山实验室、天津大学智能与计算学院、郑州大学计算机与人工智能学院以及河南省电子规划研究院。该研究发表于2022年国际计算机工程与人工智能会议(ICCEAI)。

学术背景
联邦学习(Federated Learning, FL)作为一种隐私保护的学习框架,近年来在学术界和工业界受到广泛关注。其核心优势在于能够在多个参与方之间联合训练模型,而无需交换本地数据。然而,由于联邦学习无法直接访问参与者的训练过程,攻击者可以通过上传精心设计的恶意本地更新来破坏全局模型的准确性,这种攻击被称为数据中毒攻击(Data Poisoning Attack)。传统的攻击方法(如标签翻转攻击和高斯噪声攻击)在针对鲁棒联邦学习的非定向攻击中效果有限。为了解决这一问题,本研究聚焦于使用对抗样本(Adversarial Samples)来破坏联邦学习模型的准确性,并提出了名为Fed-MIFGSM的新型中毒攻击算法,以探讨对抗样本对联邦学习的影响。

研究流程
本研究的主要流程包括以下几个步骤:
1. 威胁模型构建:假设有n个客户端,其中m个由攻击者控制。攻击者的目标是通过恶意客户端上传恶意更新来降低全局模型的准确性。攻击者可以任意修改其本地训练过程,但不能影响其他客户端的本地更新和服务器的聚合算法。
2. 攻击策略设计:攻击者使用对抗样本作为输入,在训练阶段生成恶意更新,并将其上传至服务器。具体攻击流程包括:服务器发送全局模型参数给所有客户端;良性客户端下载全局模型并计算随机梯度;恶意客户端使用对抗样本训练模型并上传恶意梯度;服务器通过聚合算法更新全局模型。
3. 攻击方法实现:本研究基于MI-FGSM(Momentum Iterative Fast Gradient Sign Method)算法生成对抗样本,并将其扩展至联邦学习框架。针对不同的聚合算法(如Krum、Bulyan、Trimmed Mean和Median),攻击者采用不同的策略生成对抗样本。例如,对于Krum和Bulyan,攻击者在生成对抗样本时添加自适应的扰动限制;对于Trimmed Mean和Median,攻击者仅在单一方向上添加扰动。
4. 实验验证:研究使用Fashion-MNIST和CIFAR-10数据集进行实验,验证了Fed-MIFGSM算法在不同场景下的攻击效果。实验结果表明,联邦学习模型在受到对抗样本攻击时,其准确性降低了5%以上。

主要结果
实验结果显示,Fed-MIFGSM算法对联邦学习模型的攻击效果显著。在Fashion-MNIST数据集中,Krum和Trimmed Mean的全局模型准确性分别从85%降至80%和85%降至80%;Median的准确性从85%降至70%;Bulyan的准确性从80%降至46%。在CIFAR-10数据集中,Trimmed Mean和Median的准确性分别降低了6.3%和6.92%;Krum和Bulyan的准确性分别降低了12.56%和27.15%。此外,研究还发现,恶意客户端比例的增加会进一步加剧攻击效果。

结论与意义
本研究通过实验证明了联邦学习在面对对抗样本攻击时的脆弱性,并提出了一种有效的中毒攻击算法Fed-MIFGSM。该研究不仅填补了对抗样本在联邦学习安全验证领域的空白,还为未来联邦学习的安全防御提供了重要参考。此外,研究还表明,复杂数据集(如CIFAR-10)在面对对抗样本攻击时更容易受到破坏,这为未来研究提供了新的方向。

研究亮点
1. 重要发现:联邦学习在面对对抗样本攻击时表现出明显的脆弱性,全局模型的准确性可降低5%以上。
2. 方法创新:提出了Fed-MIFGSM算法,首次将对抗样本应用于联邦学习的中毒攻击中。
3. 实验验证:通过Fashion-MNIST和CIFAR-10数据集的实验,验证了算法的有效性,并提供了详细的攻击效果数据。
4. 应用价值:该研究为联邦学习的安全防御提供了理论依据和实践指导,具有重要的学术和应用价值。

其他有价值的内容
本研究还探讨了不同聚合算法在面对对抗样本攻击时的表现差异,发现Bulyan和Median在面对攻击时尤为脆弱。这一发现为未来联邦学习聚合算法的优化提供了重要参考。此外,研究还指出,针对联邦学习的定向攻击可能是未来的研究方向。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com