个性化联邦学习新方法:基于部分蒸馏的FedPD研究进展
一、作者与发表信息
本文由Xu Yang、Ji-Yuan Feng、Song-Yue Guo、Bin-Xing Fang及Qing Liao(通讯作者)合作完成,作者单位包括哈尔滨工业大学(深圳)计算机科学与技术学院和鹏城实验室新型网络学部。研究于2026年3月发表在期刊*Frontiers of Computer Science*(Volume 20, Issue 3),文章标题为《FedPD: Personalized Federated Learning Based on Partial Distillation》,开放获取发布于Springer和HEP平台。
二、学术背景与研究动机
科学领域:本研究属于联邦学习(Federated Learning, FL)领域,聚焦于解决数据异构性和模型异构性挑战的个性化联邦学习(Personalized Federated Learning, PFL)。
研究背景:传统PFL方法要求客户端模型架构一致,但实际场景中客户端设备算力、模型结构差异显著。现有基于知识蒸馏(Knowledge Distillation)的异构联邦学习方法未充分考虑不同蒸馏知识的重要性,导致协作效率低下。
研究目标:提出FedPD方法,通过部分蒸馏(Partial Distillation)实现选择性知识迁移,提升异构客户端模型的性能。
三、研究方法与流程
FedPD包含两个核心模块:部分知识迁移(Partial Knowledge Transfer, PKT)和部分知识集成(Partial Knowledge Ensemble, PKE)。
PKT模块
PKE模块
实验设置
四、主要研究结果
1. 性能优势
- 在CIFAR-10上(20客户端,(\beta=0.5)),FedPD的准确率(Acc)达49.81%,较最优基线KT-PFL提升2.78%;AUC-ROC提升8.02%。
- 高异构场景((\beta=0.1))下,FedPD在Fashion-MNIST上的准确率(89.98%)比FedHKD高2.16%。
收敛性
模块有效性验证
五、结论与价值
科学价值:
- 首次提出通过部分蒸馏系数量化知识重要性,解决了异构联邦学习中冗余知识干扰问题。
- 通过PKE模块实现个性化全局知识生成,突破了传统线性聚合的局限性。
应用价值:
- 适用于医疗、智慧城市等需隐私保护且设备异构的场景,支持跨架构模型协作。
六、研究亮点
1. 方法创新:PKT与PKE的协同设计为异构联邦学习提供了新范式。
2. 鲁棒性:对公共数据集偏差不敏感(更换数据集精度波动<1.1%)。
3. 可扩展性:客户端规模从5增至50时性能稳定提升(图5)。
七、其他发现
- 超参数分析表明,调节(\tau)和(\mu)可平衡个性化与泛化能力(表7-9)。
- 计算复杂度为(O((d+w+p)mn)),通信成本可控(每轮2dm)。
展望:未来可探索动态蒸馏系数优化及跨模态联邦学习中的应用。