分享自:

超越联邦原型学习:具有超球面对比的可学习语义锚点用于域偏斜数据

期刊:the thirty-ninth aaai conference on artificial intelligence (aaai-25)

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


作者及发表信息

本研究由Lele Fu1,2, Sheng Huang1,2, Yanyi Lai1, Tianchi Liao1, Chuanfu Zhang2, Chuan Chen1*(*通讯作者)合作完成,作者单位包括中山大学计算机科学与工程学院中山大学系统科学与工程学院。论文标题为《Beyond Federated Prototype Learning: Learnable Semantic Anchors with Hyperspherical Contrast for Domain-Skewed Data》,发表于AAAI-25(第39届AAAI人工智能会议)**,会议时间为2025年。


学术背景

研究领域:本研究属于联邦学习(Federated Learning)领域,聚焦于领域偏移数据(Domain-Skewed Data)场景下的模型泛化问题。

研究动机
在联邦学习中,数据通常分布在多个客户端且具有非独立同分布(Non-IID)特性,尤其是领域偏移数据(即不同客户端数据来自不同领域,如不同成像设备的医学图像)。传统联邦原型学习(Federated Prototype Learning)通过聚合本地原型生成全局原型以增强模型泛化能力,但面临两大挑战:
1. 原型边际衰减:本地原型因包含领域特异性标记(Domain-Specific Markers),聚合后全局原型的类间分离性(Inter-Class Separation)降低;
2. 欧式空间分布不均:本地数据在欧式空间的嵌入分布不均匀,不利于基于原型的对比学习实现类内紧凑性(Intra-Class Compactness)。

研究目标
提出FedLSA方法,通过可学习语义锚点(Learnable Semantic Anchors)超球面对比(Hyperspherical Contrast),解决领域偏移数据下的原型学习缺陷,提升全局模型的泛化性能。


研究流程与方法

1. 语义锚点学习模块

  • 输入:服务器端维护一组可学习锚点参数R ∈ ℝ^(C×d)(C为类别数,d为嵌入维度),通过两层MLP映射为语义锚点A = θ®
  • 训练策略
    • 语义感知分类损失(L_ACE):利用全局分类器φ_glo将锚点投影到语义空间,通过交叉熵损失区分不同类别锚点。
    • 分离损失(L_SEP):最大化锚点间距离,增强类间分离性。公式为:
      $$ L{SEP} = \log \frac{\sum{j≠i} \exp(\mathbf{a}_i \mathbf{a}_j^T / \tau)}{C-1} $$
    • 总损失:L_LSA = L_ACE + αL_SEP(α为权衡参数)。

2. 超球面表示学习模块

  • 客户端处理
    • 数据投影:本地数据通过编码器ψ和投影器ϕ映射到超球面空间,得到归一化嵌入h_i = \text{norm}(ϕ(ψ(x_i)))
    • 对比学习:基于von Mises-Fisher分布设计对比损失(LCOM),强制类内嵌入靠近对应锚点:
      $$ L
      {COM} = -\log \frac{\exp(\mathbf{a}_y \mathbf{h}_i / \tau)}{\sum_j \exp(\mathbf{a}_j \mathbf{h}_i / \tau)} $$
    • 总损失:L_HC = L_CE + λL_COM(λ为权衡参数,L_CE为分类损失)。

3. 实验验证

  • 数据集
    • Digits(4领域,203,587张数字图像)、Office Caltech(4领域,2,533张物体图像)、PACS(4领域,9,991张图像)。
  • 对比方法:包括FedAvg、FedProx、MOON等8种联邦学习方法。
  • 评估指标:平均分类准确率及相比FedAvg的性能提升(Δ)。

主要结果

  1. 性能对比

    • FedLSA在DigitsOffice CaltechPACS上的平均准确率分别达到63.56%、60.22%和43.73%,均优于基线方法(如FedProto在Office Caltech上性能下降1.19%,而FedLSA提升7.02%)。
    • 可视化分析:图1显示FedLSA的锚点边际显著优于FedProto的全局原型;图2表明FedLSA在超球空间的嵌入分布更均匀。
  2. 消融实验

    • 移除L_SEP或L_COM均导致性能下降(如Digits上完整模型比单损失模型高2.67%)。
    • 超参数敏感性:τ=0.1时效果最佳,过高或过低均削弱对比学习效果。

结论与价值

科学价值
1. 理论创新:首次提出通过可学习锚点替代传统原型平均聚合,消除领域特异性干扰;
2. 方法创新:结合超球面空间与von Mises-Fisher分布,实现类内紧凑性和类间分离性的协同优化。

应用价值
FedLSA可应用于医疗、金融等需跨领域协作的场景,提升隐私保护下的模型泛化能力。


研究亮点

  1. 锚点学习机制:直接学习语义锚点,突破原型平均聚合的局限性;
  2. 超球面对比:通过超球面投影和对比损失解决嵌入分布不均问题;
  3. 实验全面性:覆盖多领域数据集,验证方法在复杂场景下的鲁棒性。

其他价值

  • 开源贡献:实验代码和参数设置公开,便于复现;
  • 跨领域启示:为其他分布式学习任务(如迁移学习)提供新思路。
上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com