分享自:

动态图表示学习用于时空神经影像分析

期刊:IEEE Transactions on CyberneticsDOI:10.1109/TCYB.2025.3531657

该文档属于类型a(单一原创研究报告),以下是针对该研究的学术报告:


动态图表示学习在时空神经影像分析中的应用研究

作者及机构

本研究由香港理工大学数据科学与人工智能系的Rui Liu、Yao Hu、Jibin Wu及Kay Chen Tan,香港城市大学计算机科学系的Ka-Chun Wong,香港城市大学(东莞)计算机科学系的Zhi-An Huang,以及西北工业大学计算机科学系的Yu-An Huang共同完成。论文发表于IEEE Transactions on Cybernetics(2025年3月,第55卷第3期)。

学术背景

研究领域:神经影像分析与图神经网络(Graph Neural Networks, GNNs)。
研究动机:传统神经影像分析多聚焦静态功能连接(functional connectivity, FC),但人脑活动具有动态时空特性。现有方法未能充分整合时空动态交互,导致对复杂脑网络的理解受限。
科学问题:如何通过动态图表示学习模型,统一捕捉神经影像数据(如fMRI、EEG、fNIRS)的时空依赖性,并提升跨平台任务的性能(如分类、回归、可解释性分析)。
研究目标:提出名为STIGR(Spatio-Temporal Interactive Graph Representation)的框架,结合动态图卷积与自注意力机制,解决时空建模的三大挑战:
1. 传统时空图神经网络(STGNNs)独立或交替建模时空依赖性,忽略交互;
2. 卷积核的有限感受野难以捕捉长程依赖;
3. 静态邻接矩阵无法反映脑区连接的动态演化。


研究方法与流程

1. 框架设计

STIGR包含三个核心模块:
- 局部动态图卷积网络(L-DGCN):通过动态自适应邻域图(Dynamic Adaptive-Neighbor Graph, GDAN)捕捉相邻时间窗的时空交互。GDAN包含三类矩阵:
- 空间连接矩阵(A_S):基于皮尔逊相关系数(PCC)筛选前10%的高相关性连接;
- 时间连接矩阵(A_T-CL):通过对比学习(Contrastive Learning, CL)自适应学习跨时间窗节点关联;
- 填充矩阵(A_P):补全边界时间窗的空缺。
- 全局时空注意力网络(G-STAN):基于Transformer架构,将输入信号分解为时空双路径:
- 时间注意力:聚合同一脑区不同时间点的特征;
- 空间注意力:聚合同一时间点不同脑区的特征。
- 对比学习邻接矩阵优化(CL-AM):通过对比相邻时间窗的节点表示相似性,生成动态邻接矩阵,指导L-DGCN的图卷积操作。

2. 实验设计与数据

数据集
- fMRI:ABIDE I/II(ASD诊断,样本量1035/1113)、ADHD-200(ADHD诊断,939例)、COBRE(精神分裂症诊断,146例);
- EEG:BCI-IV_2a(运动想象分类,9受试者)、BCI2015(P300拼写任务,26受试者);
- fNIRS:fNIRS-BCI(前额叶血流信号,8受试者)。

实验流程
1. 数据预处理:去噪、时间窗分割(窗长s=1530 TR)、动态图构建;
2. 模型训练:联合优化分类损失(交叉熵)与对比损失(L_CL),平衡参数α=0.5;
3. 任务验证
- 分类任务:ASD/ADHD诊断、运动想象分类;
- 回归任务:脑年龄预测;
- 可解释性分析:节点/边重要性可视化。

3. 创新方法

  • 动态混合图卷积:首次提出GDAN结构,整合时空依赖性与跨时间窗连接;
  • 对比学习引导的邻接矩阵:CL-AM模块通过相似性对比优化动态连接,解决传统静态矩阵的局限性;
  • 门控融合机制:自适应加权局部(L-DGCN)与全局(G-STAN)特征(权重θ≈0.5)。

主要结果

1. 性能对比

  • 分类任务
    • fMRI:ABIDE I准确率72.73%(AUC 79.03%),ADHD-200准确率76.15%(AUC 81.75%);
    • EEG:BCI-IV_2a平均准确率89.28%,超越第二名2.13%;
    • fNIRS:fNIRS-BCI准确率97.51%,灵敏度97.63%。
  • 回归任务:脑年龄预测的MAE为3.05年(ABIDE I),优于现有方法0.18年。

2. 可解释性分析

  • 节点级:识别ADHD关键脑区(如右额下回、扣带回)与EEG运动想象相关通道(C3/C4);
  • 边级:动态功能连接模式显示,35.6%的ADHD患者存在特定时空交互模式(右额下回-扣带回强连接)。

3. 方法优势验证

  • 消融实验:移除G-STAN或CL-AM模块导致性能下降1.2%~8.8%;
  • 跨模态泛化性:单一框架在fMRI/EEG/fNIRS数据上均达到SOTA。

结论与价值

科学意义

  1. 理论创新:首次提出“混合模式”时空建模(图1c3),突破传统独立/交替模式的局限性;
  2. 技术贡献:动态图表示学习为多模态神经影像分析提供通用解决方案。

应用价值

  • 临床辅助诊断:高精度识别ASD、ADHD等精神疾病标志;
  • 脑机接口:提升EEG/fNIRS信号解码效率;
  • 工具开源:代码与模型发布于GitHub(https://github.com/77yq77/stigr/)。

研究亮点

  1. 跨平台统一框架:首次实现fMRI/EEG/fNIRS的时空动态统一建模;
  2. 动态图卷积创新:L-DGCN与G-STAN协同捕捉局部-全局依赖;
  3. 可解释性系统:可视化工具支持个体化脑网络模式分析(图12)。

局限与展望:未来拟结合多模态学习进一步优化时空表征。


(报告字数:约1800字)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com