分享自:

基于生成对抗网络的联邦学习中的投毒攻击研究

期刊:2019 18th IEEE International Conference on Trust, Security and Privacy in Computing and Communications/13th IEEE International Conference on Big Data Science and EngineeringDOI:10.1109/trustcom/bigdatase.2019.00057

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:

主要作者及研究机构
本研究的作者包括Jiale Zhang、Junjun Chen、Di Wu、Bing Chen和Shui Yu。他们分别来自南京航空航天大学计算机科学与技术学院、北京化工大学信息科学与技术学院、悉尼科技大学软件学院及人工智能中心。该研究发表在2019年第18届IEEE国际计算与通信信任、安全与隐私会议(IEEE International Conference on Trust, Security and Privacy in Computing and Communications)上。

学术背景
研究的主要科学领域是联邦学习(Federated Learning)和生成对抗网络(Generative Adversarial Nets, GAN)。联邦学习是一种分布式学习框架,允许多个参与者在保护隐私的前提下协作训练深度学习模型。然而,联邦学习架构容易受到内部参与者的主动攻击,即投毒攻击(Poisoning Attack)。本研究旨在探索并评估基于GAN的联邦学习投毒攻击,揭示其潜在威胁。

研究流程
1. 研究目标与威胁模型
研究的主要目标是设计一种基于GAN的投毒攻击方法,并在联邦学习系统中成功实施。威胁模型假设攻击者是联邦学习系统的内部参与者,能够通过部署GAN生成其他参与者的训练数据样本,并注入错误标签以影响全局模型。

  1. 攻击构建

    • 生成投毒数据:攻击者首先作为良性参与者参与联邦学习协议,并部署GAN以生成其他参与者的训练数据样本。GAN的判别器(Discriminator)是全局模型的副本,生成器(Generator)则生成与目标类别相似的样本。
    • 注入错误标签:攻击者将生成的样本标记为错误类别,并将其注入本地训练数据集中。
    • 上传投毒更新:攻击者基于投毒数据训练本地模型,生成投毒更新,并将其上传至中央服务器。通过放大投毒更新的权重,攻击者能够显著影响全局模型。
  2. 实验设计与数据集
    研究在MNIST和AT&T两个数据集上进行了实验。MNIST包含70,000个手写数字图像,AT&T包含400个人脸图像。实验分为单攻击者和多攻击者两种场景,评估了投毒攻击的有效性。

  3. 实验结果

    • 生成模型的有效性:实验表明,攻击者能够成功生成与目标类别相似的样本。
    • 投毒任务与主任务的准确性:在单攻击者场景下,投毒任务的准确性在攻击开始后迅速达到接近100%,并在150轮通信后保持在90%左右。主任务的准确性未受显著影响,保持在85%左右。
    • 不同放大因子的影响:实验表明,当放大因子超过40时,投毒任务的准确性超过80%。
    • 多攻击者的影响:随着攻击者数量的增加,投毒任务的准确性保持稳定,主任务的准确性未受显著影响。

主要结果
1. 生成模型的有效性:攻击者能够成功生成与目标类别相似的样本,证明了GAN在投毒攻击中的潜力。
2. 投毒任务的高准确性:投毒任务的高准确性表明,攻击者能够显著影响全局模型的分类结果。
3. 主任务的稳定性:主任务的准确性未受显著影响,表明攻击者能够在不影响全局模型整体性能的情况下实施投毒攻击。
4. 放大因子的影响:放大因子的增加能够显著提高投毒任务的准确性,但不会显著影响主任务的准确性。

结论与意义
本研究首次提出并成功构建了基于GAN的联邦学习投毒攻击方法。研究表明,攻击者能够在无需入侵其他参与者设备的情况下,通过生成虚假样本并注入错误标签,显著影响全局模型的分类性能。该研究揭示了联邦学习系统在安全性和隐私保护方面的潜在漏洞,为未来设计更安全的联邦学习框架提供了重要参考。

研究亮点
1. 创新性方法:首次将GAN应用于联邦学习投毒攻击,提出了一种新颖的攻击方法。
2. 高有效性:实验结果表明,攻击者能够在保持主任务稳定性的同时,显著提高投毒任务的准确性。
3. 现实威胁模型:研究基于现实的威胁模型,假设攻击者仅作为内部参与者,无需入侵其他设备,增加了攻击的隐蔽性和可行性。

其他有价值内容
研究还探讨了现有防御机制在联邦学习中的局限性,指出传统的投毒攻击防御方法(如鲁棒损失和异常检测)不适用于联邦学习。未来研究可以探索隐藏全局模型分类结果的方法,以防止攻击者利用GAN生成虚假样本。

通过本研究的深入分析与实验验证,联邦学习系统的安全性和隐私保护问题得到了进一步揭示,为相关领域的研究者和实践者提供了重要的理论支持和实践指导。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com