类型a
主要作者与机构及发表信息
该研究的主要作者包括Keke Gai(北京理工大学)、Zijun Wang、Jing Yu(中央民族大学)以及Liehuang Zhu(北京理工大学)。本研究得到了中国国家自然科学基金(项目编号:U24B200674、62372044)和北京市科学技术委员会项目的支持。论文已被《IEEE Transactions on Information Forensics and Security》接收,预计于2025年正式发表。
学术背景
该研究属于联邦学习(Federated Learning, FL)和持续学习(Continual Learning, CL)领域,旨在解决异构联邦学习中的两个核心问题:数据异构性和灾难性遗忘(Catastrophic Forgetting)。随着深度学习的发展,利用分散数据训练模型成为趋势,但直接共享数据存在隐私和安全问题。为此,联邦学习被提出作为一种隐私保护的分布式机器学习方法。然而,现有的联邦学习方法在处理非独立同分布(Non-IID)数据时面临收敛效率低和灾难性遗忘的问题。此外,在持续学习场景中,当任务流增加时,旧任务的知识容易被遗忘。为了解决这些问题,本研究提出了一个名为MUFTI(Multi-Domain Distillation-based Heterogeneous Federated Continuous Learning)的新框架。
研究工作流程
该研究主要包括以下步骤:
特征表示学习(Feature Representation Learning)
双域知识蒸馏(Dual-Domain Knowledge Distillation)
跨任务知识蒸馏(Cross-Task Knowledge Distillation)
数据分析与实验验证
主要结果
1. 特征表示学习的结果
- 在Digits、OfficeHome和PACS数据集上的实验表明,MUFTI在域内和域间的分类准确率均优于现有方法。例如,在Digits任务中,MUFTI比FedMD方法高出5.67%的准确率。 - 特征表示学习显著提高了跨域知识的学习能力,使模型在不同领域间的泛化能力更强。
双域知识蒸馏的结果
跨任务知识蒸馏的结果
结论与意义
该研究提出了一种新颖的异构联邦持续学习框架MUFTI,有效解决了数据异构性和灾难性遗忘问题。MUFTI通过特征表示学习和双域知识蒸馏实现了跨域协作训练,通过跨任务知识蒸馏缓解了灾难性遗忘。实验结果表明,MUFTI在多个数据集上的性能优于现有方法,具有较高的准确率和鲁棒性。该研究的意义在于为联邦学习和持续学习领域提供了新的解决方案,具有重要的理论价值和应用前景。
研究亮点
1. 提出了结合域适应和对比学习的特征表示学习方法,增强了模型的泛化能力。 2. 设计了双域知识蒸馏策略,有效缓解了单任务内的知识遗忘问题。 3. 提出了跨任务知识蒸馏策略,解决了任务流增加时的灾难性遗忘问题。 4. 实验验证了MUFTI在不同数据集和模型架构上的通用性。
其他有价值内容
研究还探讨了公共数据集依赖性、模型同质性与异质性等问题。实验结果表明,MUFTI对公共数据集的质量和数量依赖性较低,适用于不同类型的模型架构。此外,研究还验证了特征表示学习相较于logits输出的优势,证明了特征层输出在协作训练中的优越性。