这篇文档属于类型a,即报告了一项原创研究。以下是对该研究的学术报告:
该研究的主要作者包括Yingjie Xue、Jiachen Li、Rui Xue、Jingcheng Zhao和Kaiping Xue,他们均来自中国科学技术大学网络空间安全学院。该研究发表在期刊*Transactions on Network Science and Engineering*上,稿件编号为TNSE-2025-04-0834,属于网络科学方法学领域。
联邦学习(Federated Learning, FL)是一种分布式机器学习框架,允许多个参与方在保持本地数据所有权的同时协作训练共享模型。然而,FL在隐私保护方面存在挑战,尤其是在分布式训练过程中,恶意参与者可能通过投毒攻击(Poisoning Attacks)操纵训练过程,从而降低模型的完整性或性能。现有的防御策略主要依赖统计方法来缓解此类攻击,但这些方法在面对多种攻击类型或恶意客户端占多数时缺乏鲁棒性。为了解决这些局限性,研究团队提出了RobustPPFL,这是一个隐私保护的联邦学习框架,旨在抵御多种投毒攻击类型,即使恶意参与者占多数时也能保持高鲁棒性。
RobustPPFL框架的设计包括以下几个核心步骤:
研究团队通过在不同数据集和攻击场景下的广泛实验评估了RobustPPFL框架的性能。实验结果表明,RobustPPFL在隐私保护和投毒攻击防御方面表现出色,尤其是在恶意客户端占多数的情况下,仍能保持较高的模型准确性和鲁棒性。具体实验结果如下:
RobustPPFL框架通过引入安全模型验证协议和分组验证机制,成功解决了联邦学习中隐私保护与投毒攻击防御之间的冲突。该框架在保持隐私保护的同时,能够有效抵御多种投毒攻击类型,即使恶意客户端占多数时也能保持高鲁棒性。实验结果表明,RobustPPFL在多个数据集和攻击场景下均表现出色,为实际部署提供了可行的解决方案。
研究团队还详细分析了RobustPPFL框架的安全性,证明了在服务器不串通且恶意客户端不超过n-2的情况下,框架能够有效保护客户端隐私并抵御投毒攻击。此外,研究团队还提供了框架的详细实现流程和实验结果,为后续研究提供了重要的参考。
RobustPPFL框架在隐私保护、投毒攻击防御和可扩展性方面均表现出色,为联邦学习系统的实际部署提供了重要的技术支持和理论依据。