本文档属于类型a,即报告了一项原创性研究。以下是对该研究的学术报告:
本研究由Xiaodong Wu、Henry Yuan、Xiangman Li、Jianbing Ni(IEEE高级会员)和Rongxing Lu(IEEE会士)共同完成。Xiaodong Wu、Xiangman Li和Jianbing Ni来自加拿大女王大学电气与计算机工程系及Ingenuity Labs研究所;Henry Yuan同样来自女王大学电气与计算机工程系;Rongxing Lu则来自加拿大新不伦瑞克大学计算机科学学院。该研究发表于2024年11月4日的《IEEE Transactions on Information Forensics and Security》期刊。
本研究聚焦于分裂联邦学习(Split Federated Learning, SFL)的安全性及鲁棒性评估,特别是针对恶意客户端驱动的投毒攻击(Poisoning Attacks)。SFL是一种新兴的分布式协作学习架构,结合了联邦学习(Federated Learning, FL)和分裂学习(Split Learning, SL),旨在资源受限的环境中保护隐私。尽管SFL具有显著的优势,但其鲁棒性尚未得到充分研究。投毒攻击是FL中已知的严重威胁,可能通过操纵训练数据、模型权重或标签来破坏模型的完整性。因此,本研究旨在评估SFL在面对传统投毒攻击(如数据集投毒、权重投毒和标签投毒)以及专门针对SFL设计的新型投毒攻击(如Smash投毒)时的脆弱性,并提出相应的防御策略。
本研究包括以下几个主要步骤:
研究问题定义
研究提出了四个核心问题:
攻击方法设计
研究设计了四种投毒攻击方法:
实验设置
研究在四个图像数据集(MNIST、F-MNIST、CIFAR-10和FEMNIST)上进行了实验,评估了不同投毒攻击方法的效果。实验采用ResNet-18模型,默认将前三个卷积层分配给客户端模型,其余层分配给服务器模型。实验中使用了SGD优化器,学习率为0.01,攻击率为1。
防御方法评估
研究评估了九种鲁棒聚合方法(如Krum、Median、SparseFed、FLTrust、DNC、DeepSight和ShieldFL)在SFL中的防御效果,并提出了一种新的防御策略Smash Defense,通过过滤恶意分裂数据来提高SFL的鲁棒性。
数据分析
研究通过分类准确率、目标类真阳性率(TPR)、基类真阴性率(TNR)和错误分类率(WCR)等指标评估了攻击和防御的效果。实验结果通过多次实验取平均值,以确保数据的可靠性。
投毒攻击效果
防御方法效果
其他发现
本研究首次全面评估了SFL在面对投毒攻击时的鲁棒性,揭示了其在不同攻击场景下的脆弱性。研究提出的新型投毒攻击方法(如Smash投毒)和混合攻击方法(如Labelsmash)为SFL的安全性研究提供了新的视角。同时,研究验证了传统FL防御方法在SFL中的有效性,并提出了专门针对SFL的防御策略Smash Defense。这些发现为SFL系统的安全设计和应用提供了重要参考。
研究还探讨了SFL在非独立同分布(Non-IID)数据、不同模型结构(如ResNet-152和VGG16)以及不同攻击时机下的表现,进一步丰富了研究的广度和深度。
通过本研究,学术界和工业界可以更好地理解SFL系统的安全挑战,并为其实际应用提供有效的防御策略。