这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
本研究由Renpu Liu(宾夕法尼亚州立大学电子工程与计算机科学学院)、Cong Shen(弗吉尼亚大学电气与计算机工程系)和Jing Yang(宾夕法尼亚州立大学)合作完成,发表于ICML 2024(第41届国际机器学习会议)。
研究领域:
本研究属于联邦学习(Federated Learning, FL)与表示学习(Representation Learning)的交叉领域,聚焦于欠参数化机制(under-parameterized regime)下的联邦表示学习(Federated Representation Learning, FRL)。
研究动机:
现有FRL研究大多集中在过参数化机制(over-parameterized regime),即模型参数足以拟合所有客户端的真实模型。然而,实际应用中,边缘设备(如智能手机、物联网设备)受限于计算资源、通信带宽和隐私问题,无法支持过参数化模型。因此,研究欠参数化机制下的FRL更具现实意义。
科学问题:
在欠参数化机制下,全局模型无法完全表达所有客户端的真实模型,导致本地优化的表示可能与全局最优解不一致。如何通过联邦学习框架高效聚合本地表示并逼近全局最优,成为核心挑战。
问题建模
-γ1∥bw∥²_F:保留bw矩阵的显著成分,抑制本地过拟合;γ2(∥bᵀb∥²_F + ∥wwᵀ∥²_F):通过惩罚项对齐表示与本地头的结构,促进全局最优子空间的提取。y = ϕᵢx + ξ),全局表示b与本地头w的乘积需最小化∥bw - ϕ∥²_F。算法设计(FLUTE)
b和本地头wᵢ至客户端;理论分析
Õ(max{d,m}/(mϵ²)),优于过参数化机制下的结果。实验验证
λ₃ncᵢ(hᵢ)),在分类任务中取得最高准确率。理论贡献
实验成果
k(表示维度)较小时优势显著,验证欠参数化机制的有效性。n(每客户端样本量)和m(客户端数)较大时表现更优。科学价值:
- 首次系统研究欠参数化机制下的FRL,填补了理论空白;
- 提出FLUTE算法,为资源受限的边缘设备提供高效联邦学习方案。
应用价值:
- 适用于物联网、医疗等数据异构性强且隐私敏感的场景;
- 通过降低模型复杂度,减少通信与计算开销。
k ≪ r)下表现优异。此报告全面涵盖了研究的背景、方法、结果与意义,为学术界和工业界提供了联邦学习在欠参数化方向的新视角。