分享自:

基于注意力机制的联邦学习在多模态生理数据情感识别中的应用

期刊:biomedical signal processing and controlDOI:10.1016/j.bspc.2024.106353

这篇文档属于类型a,是一篇关于原创研究的学术论文报告。以下是详细内容:


作者及机构
本研究由Delhi Technological University(印度新德里)的Neha Gahlan和Divyashikha Sethia共同完成,发表于期刊《Biomedical Signal Processing and Control》2024年第94卷。


学术背景
本研究属于情感计算(affective computing)与联邦学习(Federated Learning, FL)的交叉领域。情感识别系统通常依赖生理信号(如脑电图EEG、心电图ECG、皮肤电反应GSR)来检测人类情绪状态。传统方法需集中访问用户敏感数据,存在隐私泄露风险。联邦学习通过分布式训练解决隐私问题,但现有方法难以处理多模态生理数据的异质性(如信号类型差异和数据量不平衡)。
本研究的目标是提出一种新型框架AFLEMP(Attention-based Federated Learning for Emotion Recognition using Multi-modal Physiological Data),通过结合注意力机制和人工神经网络(ANN),解决数据异质性,同时提升通信效率和可扩展性。


研究流程与方法
1. 数据准备与预处理
- 数据集:使用公开情感数据集AMIGOS(40名参与者,EEG+ECG+GSR信号)和DREAMER(23名参与者,EEG+ECG信号)。
- 预处理:包括降采样(128 Hz)、带通滤波(EEG: 4–45 Hz;ECG/GSR: 低通60 Hz)、基线校正(AMIGOS: 5秒;DREAMER: 4秒)和信号分段(2秒窗口,50%重叠)。
- 特征提取:从EEG、ECG和GSR中提取时域(如均值、方差)和频域特征(如功率谱密度PSD),共219个特征(AMIGOS)和208个特征(DREAMER)。

  1. 特征融合与注意力机制

    • 多模态融合:采用特征级融合(Feature-Level Fusion)将EEG、ECG和GSR特征拼接,保留全部信息。
    • 注意力机制:嵌入三种注意力机制(通用注意力、自注意力、Transformer)动态加权多模态特征,解决信号间异质性(Variation Heterogeneity, VH)。Transformer表现最佳(6头自注意力+归一化层)。
  2. 联邦学习框架设计

    • 客户端-服务器架构:客户端本地训练ANN+Transformer模型,服务器聚合权重。
    • 加权联邦平均:提出“Scaled Weighted Federated Averaging”算法,根据客户端数据量动态调整权重,解决数据不平衡(Imbalanced Data Heterogeneity, IDH)。
    • 评估方法:采用留一交叉验证(LOOCV),测试不同客户端分布(5–20个客户端)和聚合轮次(50–200轮)。
  3. 实验与性能指标

    • 分类任务:三维情感分类(效价Valence、唤醒度Arousal、优势度Dominance)。
    • 对比实验
      • C1:比较三种注意力机制的性能。
      • C2:对比AFLEMP与现有FL方法(FedAvg、FedPer、FedBoost)。
    • 评估指标:准确率、精确率、召回率、F1分数、训练时间、通信效率(聚合时间)。

主要结果
1. 注意力机制性能
- Transformer在AMIGOS和DREAMER上分别达到88.3%和84.1%的平均准确率,优于通用注意力(78.7%/73.8%)和自注意力(83.8%/78.5%)。
- 多模态融合比单模态(如仅EEG)准确率提升9–12%。

  1. 联邦学习对比

    • AFLEMP显著优于FedAvg(77.51%/69.20%)、FedPer(77.91%/70.89%)和FedBoost(81.52%/74.92%)。
    • 通信效率:Scaled加权平均耗时107.684秒(AMIGOS, 20客户端),比动态加权平均(DWFA)减少46.5%。
  2. 可扩展性

    • 客户端数量增加(5→20)时,准确率保持稳定(AMIGOS: 77.13%→89.81%),表明框架具备鲁棒性。

结论与价值
1. 科学价值
- 首次将Transformer注意力机制引入联邦学习框架,解决多模态生理数据的异质性。
- 提出Scaled加权平均算法,优化了非独立同分布(Non-IID)数据下的模型聚合效率。

  1. 应用价值
    • 为医疗健康、人机交互等领域提供隐私保护的情感识别方案,避免敏感数据集中存储。
    • 框架支持实时情绪监测,适用于可穿戴设备等边缘计算场景。

研究亮点
1. 创新方法
- AFLEMP是首个结合Transformer与联邦学习的情感识别框架。
- 同时解决VH(信号异质性)和IDH(数据不平衡)两大挑战。

  1. 性能优势

    • 在公开数据集上达到SOTA(State-of-the-Art)准确率,且通信开销降低。
    • 支持三维情感分类(VAD模型),比传统二维(VA模型)更全面。
  2. 开源工具:基于TensorFlow Federated(TFF)实现,代码可复现。


其他价值
- 实验设计严谨,包括不同客户端分布和聚合轮次的对比,验证了框架的普适性。
- 为后续多模态联邦学习研究提供了方法论参考。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com