该文档属于类型a(单一原创研究报告),以下是针对该研究的学术报告:
本研究由香港理工大学数据科学与人工智能系的Rui Liu、Yao Hu、Jibin Wu及Kay Chen Tan,香港城市大学计算机科学系的Ka-Chun Wong,香港城市大学(东莞)计算机科学系的Zhi-An Huang,以及西北工业大学计算机科学系的Yu-An Huang共同完成。论文发表于IEEE Transactions on Cybernetics(2025年3月,第55卷第3期)。
研究领域:神经影像分析与图神经网络(Graph Neural Networks, GNNs)。
研究动机:传统神经影像分析多聚焦静态功能连接(functional connectivity, FC),但人脑活动具有动态时空特性。现有方法未能充分整合时空动态交互,导致对复杂脑网络的理解受限。
科学问题:如何通过动态图表示学习模型,统一捕捉神经影像数据(如fMRI、EEG、fNIRS)的时空依赖性,并提升跨平台任务的性能(如分类、回归、可解释性分析)。
研究目标:提出名为STIGR(Spatio-Temporal Interactive Graph Representation)的框架,结合动态图卷积与自注意力机制,解决时空建模的三大挑战:
1. 传统时空图神经网络(STGNNs)独立或交替建模时空依赖性,忽略交互;
2. 卷积核的有限感受野难以捕捉长程依赖;
3. 静态邻接矩阵无法反映脑区连接的动态演化。
STIGR包含三个核心模块:
- 局部动态图卷积网络(L-DGCN):通过动态自适应邻域图(Dynamic Adaptive-Neighbor Graph, GDAN)捕捉相邻时间窗的时空交互。GDAN包含三类矩阵:
- 空间连接矩阵(A_S):基于皮尔逊相关系数(PCC)筛选前10%的高相关性连接;
- 时间连接矩阵(A_T-CL):通过对比学习(Contrastive Learning, CL)自适应学习跨时间窗节点关联;
- 填充矩阵(A_P):补全边界时间窗的空缺。
- 全局时空注意力网络(G-STAN):基于Transformer架构,将输入信号分解为时空双路径:
- 时间注意力:聚合同一脑区不同时间点的特征;
- 空间注意力:聚合同一时间点不同脑区的特征。
- 对比学习邻接矩阵优化(CL-AM):通过对比相邻时间窗的节点表示相似性,生成动态邻接矩阵,指导L-DGCN的图卷积操作。
数据集:
- fMRI:ABIDE I/II(ASD诊断,样本量1035/1113)、ADHD-200(ADHD诊断,939例)、COBRE(精神分裂症诊断,146例);
- EEG:BCI-IV_2a(运动想象分类,9受试者)、BCI2015(P300拼写任务,26受试者);
- fNIRS:fNIRS-BCI(前额叶血流信号,8受试者)。
实验流程:
1. 数据预处理:去噪、时间窗分割(窗长s=15⁄30 TR)、动态图构建;
2. 模型训练:联合优化分类损失(交叉熵)与对比损失(L_CL),平衡参数α=0.5;
3. 任务验证:
- 分类任务:ASD/ADHD诊断、运动想象分类;
- 回归任务:脑年龄预测;
- 可解释性分析:节点/边重要性可视化。
局限与展望:未来拟结合多模态学习进一步优化时空表征。
(报告字数:约1800字)