分享自:

隐私保护的异构个性化联邦学习框架

期刊:IEEE Transactions on Network Science and EngineeringDOI:10.1109/tnse.2024.3386623

学术报告:基于知识的隐私保护异构个性化联邦学习

一、研究概述与背景

该文献为一篇原始研究文章,发表于《IEEE Transactions on Network Science and Engineering》期刊,期刊第11卷,第6期,2024年11月/12月出版,文章标题为“Privacy-Preserving Heterogeneous Personalized Federated Learning with Knowledge”。该文的主要作者为Yanghe Pan(西安交通大学),Zhou Su(西安交通大学,IEEE高级会员),Jianbing Ni(加拿大女王大学,IEEE高级会员),Yuntao Wang(西安交通大学),Jinhao Zhou(早稻田大学),并由Zhou Su教授作为通讯作者。

本研究的主题聚焦于“隐私保护异构个性化联邦学习”(Privacy-Preserving Heterogeneous Personalized Federated Learning)。在联邦学习(Federated Learning, FL)这一日益发展的机器学习范式中,如何有效处理参与者的非独立同分布(non-IID)数据问题,尤其是在保护隐私的前提下,成为了一个关键的研究方向。现有的个性化联邦学习(Personalized Federated Learning, PFL)方案存在着许多限制,特别是在支持异构模型架构、保障隐私方面的问题。因此,本研究提出了一种新的隐私保护的异构个性化联邦学习框架,旨在解决现有方案的不足。

二、研究背景与科学目标

联邦学习作为一种分布式机器学习框架,通过在不共享本地数据的情况下实现全球模型的训练,从而保障了参与者的隐私。然而,当数据分布高度非独立同分布时,全球模型往往不能满足各个参与者的个性化需求,导致性能下降。因此,个性化联邦学习应运而生,其通过为每个参与者提供适合其本地数据分布的个性化模型,解决了这一问题。

尽管如此,现有的个性化联邦学习方案仍面临诸多挑战。首先,现有的PFL方案通常要求所有参与者使用相同的模型架构和大小,这限制了计算能力较弱的参与者参与其中;其次,隐私问题仍未得到有效解决。模型聚合过程中的本地更新泄露会导致隐私泄露,尤其是当所有参与者使用相同架构时,攻击者可能通过统一的攻击方式提取敏感信息。最后,如何支持异构模型并在保证隐私的情况下进行有效的聚合和个性化优化,是本研究所要解决的核心问题。

三、研究方法与流程

为了应对上述挑战,本文提出了一个名为“Privacy-Preserving Heterogeneous Personalized Federated Learning”(PHP-FL)的新框架。PHP-FL框架的核心思想是利用参与者的“知识”来支持异构模型的个性化训练,并通过“环聚合算法”来保障隐私。

  1. 本地训练与知识提取: 每个参与者首先在本地私有数据集上训练一个本地模型,并使用本地模型对一个公共数据集进行预测,从而得到“知识矩阵”。这些“知识”即为模型对公共数据集的软预测(soft predictions),与原始数据无关,因此不会泄露参与者的私人数据。随后,所有参与者将其知识矩阵上传至中央服务器。

  2. 参与者聚类: 根据每个参与者的知识矩阵,服务器使用一种称为“亲和传播”(Affinity Propagation, AP)算法的聚类方法将参与者分为多个组。该算法通过计算参与者知识矩阵之间的相似性,确保将具有相似数据分布的参与者聚类到一起。同时,考虑到参与者的计算和存储能力,服务器还进行资源聚类,将计算和存储能力相近的参与者归为一组。最终,服务器结合知识聚类和资源聚类的结果,得到最终的细粒度参与者组。

  3. 聚合与隐私保护: 在每个聚类中,聚类组的“领导者”负责收集组内所有参与者的模型更新,并利用“环聚合”算法进行隐私保护的聚合。环聚合算法通过异步更新和伪随机扰动来遮蔽原始的本地更新,从而防止中央服务器或其他恶意参与者通过聚合过程泄露私人信息。

  4. 跨聚类知识传输: 为了提升弱参与者的个性化性能,PHP-FL还引入了跨聚类知识传输机制。强参与者的模型知识会传递给弱参与者,帮助其提升个性化模型的表现。

  5. 个性化模型分配: 最终,每个参与者将根据其所处的聚类组分配一个个性化的全局模型。这些模型经过聚合和知识传输的优化,能够更好地适应每个参与者的本地数据分布。

四、实验与结果

为了验证PHP-FL框架的有效性,研究者在多个数据集上进行了大量实验,包括Fashion-MNIST、EMNIST和CIFAR-10。这些数据集被广泛用于图像识别任务,具有不同的非IID分布。实验结果显示,在同质化和异构场景下,PHP-FL框架都显著优于现有的个性化联邦学习方案,尤其是在处理异构模型时,PHP-FL表现出更强的个性化能力。

  1. 同质化场景实验: 在所有参与者使用相同CNN架构的情况下,PHP-FL在Fashion-MNIST、EMNIST和CIFAR-10数据集上的表现均超过了现有的PFL方案,尤其在CIFAR-10和EMNIST上,PHP-FL取得了96.45%、97.40%的准确率,表现优异。

  2. 异构场景实验: 在参与者使用不同计算能力的模型(如CNN、ResNet-18、ResNet-34)的情况下,PHP-FL仍然表现出了优异的个性化能力。特别是在CIFAR-10数据集上,PHP-FL在弱参与者的个性化性能提升方面比其他方案表现更好。

  3. 隐私保护能力: PHP-FL还有效地防止了倒推攻击(inversion attacks)和成员推断攻击(membership inference attacks)。实验表明,在PHP-FL中,即使攻击者尝试通过聚合结果推断原始数据,仍然无法获得有用信息,证明了该框架在隐私保护方面的优势。

五、研究结论与意义

本研究提出的PHP-FL框架,在处理联邦学习中的异构性、隐私保护和个性化建模方面取得了显著进展。其创新性地结合了基于知识的聚类方法和环聚合算法,成功地解决了传统个性化联邦学习中存在的隐私泄露、模型异构性和计算资源差异等问题。PHP-FL不仅在理论上具有重要的创新意义,也为实际应用中对隐私保护、个性化学习和异构参与者支持提供了可行的解决方案。

六、研究亮点

  1. 异构模型支持: 该研究提出的PHP-FL框架可以支持使用不同计算能力的参与者,避免了传统个性化联邦学习中对模型架构的一致性要求,从而扩展了该技术的应用范围。

  2. 隐私保护机制: 本研究通过环聚合算法有效保护了参与者的隐私,避免了恶意攻击者通过聚合结果推断本地数据,从而解决了联邦学习中的隐私泄露问题。

  3. 跨聚类知识传输: PHP-FL通过跨聚类知识传输,提升了弱参与者的个性化性能,确保了不同参与者间的资源共享和优化。

七、实际应用价值

随着智能设备和边缘计算的广泛应用,如何在分布式环境中进行个性化学习,同时确保数据隐私和安全,已成为一个亟待解决的实际问题。PHP-FL框架为此类应用提供了有效的技术支持,特别是在需要异构计算能力的场景下,具有重要的实际应用价值。此外,随着联邦学习在金融、医疗、智能交通等领域的逐步应用,本研究提出的隐私保护与个性化模型的结合方案,将为这些领域的智能系统提供更为强大的支持。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com