联邦学习中的公平性与抗后门攻击:SARS框架的学术报告
本研究由Weibin Zhang, Youpeng Li, Lingling An, Bo Wan(西安电子科技大学)和Xuyu Wang(佛罗里达国际大学)合作完成,发表于ACM Interactive, Mobile, Wearable and Ubiquitous Technologies (IMWUT)期刊2024年12月刊,标题为《SARS: A Personalized Federated Learning Framework Towards Fairness and Robustness Against Backdoor Attacks》。
科学领域:本研究属于联邦学习(Federated Learning, FL)与机器学习安全交叉领域,聚焦于解决联邦学习中的两大核心问题——后门攻击(Backdoor Attack)的鲁棒性和用户间的公平性(Fairness)。
研究动机:
1. 后门攻击威胁:联邦学习中,恶意用户可通过上传被污染的梯度更新(Poisoned Gradient Updates)植入后门,导致全局模型在特定子任务(如触发后门样本)上表现异常,而主任务性能不受影响。
2. 公平性缺失:现有防御方法(如鲁棒聚合)可能因过滤良性更新或添加噪声导致用户性能差异扩大,破坏系统公平性。
3. 个性化联邦学习(Personalized FL)的局限性:传统个性化方法(如Ditto)虽能提升公平性,但无法有效抵御后门知识从全局模型向个性化模型的迁移。
研究目标:提出SARS(Self-Awareness Revision)框架,通过自适应特征提取与知识映射,实现后门防御与公平性的统一。
SARS框架包含两个核心模块:
- 自适应特征提取(Adaptation Feature Extraction):用户通过自注意力蒸馏(Self-Attention Distillation, SAD)对齐全局与个性化模型的注意力图(Attention Map),过滤后门知识。
- 关键技术:
- 注意力图生成:基于中间层特征(如ResNet的浅层与深层特征)计算统计量(如通道绝对值和、最大值)。
- 自注意力蒸馏:通过归一化与双线性上采样对齐深浅层注意力图,最小化其L2距离(公式9)。
- 知识映射(Knowledge Mapping):冻结特征提取器,微调线性分类器,确保干净样本特征与标签的正确映射。
逻辑链条:SAD通过注意力对齐消除后门特征,而知识映射阶段保留全局知识,实现防御与性能的平衡。
逻辑链条:个性化模型适配本地数据分布,而SAD避免后门知识导致的性能偏差。
科学价值:
1. 理论创新:首次提出兼顾公平性与后门防御的个性化联邦学习框架。
2. 方法突破:自注意力蒸馏为后门防御提供了新思路,可扩展至其他分布式学习场景。
应用价值:
- 隐私保护:无需服务器端过滤更新,符合GDPR等数据隐私法规。
- 边缘计算:适用于移动边缘智能(如活动识别、输入预测)中的异构设备协同训练。
(报告总字数:约1800字)