分享自:

基于Granger因果启发的图神经网络在精神疾病诊断中的应用

期刊:Neural NetworksDOI:10.1016/j.neunet.2024.106147

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


研究作者及机构

本研究的作者包括Kaizhong Zheng、Shujian Yu和Badong Chen。Kaizhong Zheng和Badong Chen来自西安交通大学的国家重点实验室——人机混合增强智能实验室、视觉信息与应用国家工程研究中心以及人工智能与机器人研究所。Shujian Yu则分别隶属于荷兰阿姆斯特丹自由大学计算机科学系和挪威北极大学机器学习组。该研究于2024年发表在期刊《Neural Networks》上,文章标题为《CI-GNN: A Granger Causality-Inspired Graph Neural Network for Interpretable Brain Network-Based Psychiatric Diagnosis》。

学术背景

本研究的主要科学领域是图神经网络(Graph Neural Network, GNN)及其在精神疾病诊断中的应用。近年来,GNN在基于脑网络的精神疾病诊断中展现出强大的潜力,但其决策过程通常被视为“黑箱”,缺乏可解释性。现有的GNN解释方法多为事后解释(post-hoc),即需要额外的解释模型来解释已训练好的GNN,且往往忽略了解释与决策之间的因果关系,导致解释可能包含虚假相关性,缺乏可信度。为了解决这些问题,本研究提出了一种基于格兰杰因果(Granger Causality)的图神经网络(CI-GNN),旨在通过内置的可解释性模型识别与决策因果相关的子图(即脑区域之间的功能连接),而无需额外的解释网络训练。

研究流程

研究流程包括以下几个主要步骤:

  1. 模型设计与实现
    CI-GNN的核心框架基于图变分自编码器(Graph Variational Autoencoder, GraphVAE),通过学习解耦的子图级表示𝛼和𝛽,分别编码原始图的因果和非因果部分。𝛼和𝛽的独立性通过条件互信息(Conditional Mutual Information, CMI)约束来保证。具体来说,模型包括四个模块:

    • GraphVAE模块:用于学习解耦的潜在因子𝑍 = [𝛼; 𝛽],并通过分离的解码头重建图的特征矩阵和邻接矩阵。
    • 因果效应估计器:确保只有𝛼与标签𝑌因果相关。
    • 因果子图生成器:通过线性解码器从𝛼生成因果子图𝐺𝑠𝑢𝑏。
    • 基础分类器:使用𝐺𝑠𝑢𝑏进行图分类。
  2. 理论验证
    研究从格兰杰因果的角度理论证明了CMI约束在捕捉因果关系中的有效性,并引入了基于矩阵的Rényi熵来高效计算CMI项,使得模型能够端到端训练。

  3. 实验与评估
    研究在合成数据和三个大规模脑疾病数据集上对CI-GNN进行了评估,包括ABIDE、REST-META-MDD和SRPBS数据集。实验分为以下几个部分:

    • 分类性能评估:比较CI-GNN与三种基线GNN和四种最新的GNN解释器在准确率、F1分数和Matthews相关系数(MCC)上的表现。
    • 解释质量评估:通过可视化因果子图,验证CI-GNN识别的生物标志物是否与临床证据一致。
    • 超参数分析:研究了𝛼和𝛽的特征维度对模型性能的影响。
    • 消融实验:验证GraphVAE和因果效应估计器在模型中的重要性。
  4. 计算复杂度分析
    研究还比较了CI-GNN与其他GNN解释器的时间复杂度,证明了CI-GNN的计算开销在可接受范围内。

主要结果

  1. 分类性能
    CI-GNN在合成数据和脑疾病数据集上均表现出色,显著优于所有基线模型。例如,在BA-2Motif数据集上,CI-GNN的准确率达到99.9%,远高于其他模型。在ABIDE和REST-META-MDD数据集上,CI-GNN的准确率分别为71%和72%,均显著优于现有方法。

  2. 解释质量
    CI-GNN能够准确识别与标签因果相关的子图。例如,在BA-2Motif数据集中,CI-GNN成功识别了决定标签的“house”和“cycle”结构,而其他方法则错误地关注了与标签无关的“tree”结构。在脑疾病数据集中,CI-GNN识别的生物标志物与临床观察一致,例如在REST-META-MDD数据集中,CI-GNN成功识别了与抑郁症治疗反应相关的左直回(left rectus)区域。

  3. 消融实验结果
    消融实验表明,GraphVAE和因果效应估计器对模型性能的提升至关重要。移除因果效应估计器后,模型性能显著下降,尤其是在脑疾病数据集上。

结论

本研究提出的CI-GNN是一种内置可解释性的图神经网络,能够从因果角度识别与决策相关的子图结构。通过在合成数据和脑疾病数据集上的实验,CI-GNN不仅表现出卓越的分类性能,还提供了可靠且简洁的解释,这些解释与临床证据高度一致。此外,CI-GNN的框架具有通用性,可推广到其他领域,如分子数据分析。

研究亮点

  1. 因果驱动的可解释性:CI-GNN首次从因果角度设计可解释性,能够识别与决策因果相关的子图,避免了虚假相关性的干扰。
  2. 内置解释机制:与事后解释方法不同,CI-GNN的解释由模型自身生成,无需额外的解释网络训练,提高了解释的可靠性。
  3. 广泛的适用性:CI-GNN不仅在脑疾病诊断中表现出色,还可应用于其他领域,如分子数据分类。

其他价值

本研究为GNN在医学诊断中的应用提供了新的思路,特别是在需要透明决策过程的领域。未来,研究者计划进一步评估CI-GNN在分布外数据(out-of-distribution, OOD)上的泛化能力,并探索将人类专家知识融入模型设计的可能性。


以上报告全面介绍了该研究的背景、方法、结果及其科学价值,旨在为其他研究者提供深入的理解和参考。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com