这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
本研究由Zhengdao Li(广州大学、香港中文大学深圳)、Yong Cao(华中科技大学)、Kefan Shuai、Yiming Miao(通讯作者)和Kai Hwang(香港中文大学深圳)合作完成,发表于IJCAI-24(第三十三届国际人工智能联合会议)。
研究聚焦于图神经网络(Graph Neural Networks, GNNS)的评估基准问题。当前,图分类基准数据集(如OGB、TUDataset)被广泛用于衡量GNN模型的性能,但近期研究发现,简单方法(如多层感知机MLPs)在某些任务中表现与GNNs相当,甚至更优。这引发了一个核心问题:现有基准数据集是否能有效区分GNNs与其他方法的性能差异?
目标:公平比较GNNs与基线方法的性能差异。
- 输入信息解耦:将性能差异分解为结构差异(δs)和属性差异(δa):
- δs:仅输入结构信息(如节点度)时,GNNs与基线方法的准确率差异。
- δa:输入真实节点/边属性时,GNNs与基线方法的准确率差异。
- 基线方法选择:
- 结构主导基线:浅层MLPs(输入为平均图度数)。
- 属性主导基线:分子指纹(MoleculeFingerprint)或MLPs结合池化层。
- GNN模型选择:涵盖空间方法(如GIN)、谱方法(如GCN)和图核方法(如WL-GK)。
数据集:16个真实世界数据集,覆盖生物化学(如HIV、PPA)、社会科学(如IMDB-B)、计算机视觉(如MNIST图化数据)等领域(见表1)。
- 实验框架:基于[Errica et al., 2020]的基准框架改进,支持多源数据集加载(如PyG、OGB)和自定义特征输入。
- 评估方案:10折交叉验证,采用分类准确率或AUC-ROC指标。
定义:
[ e(d) = \sum{type\in{s,a}} \frac{|\delta{type}(d)|}{r^(|y|-1)} \cdot \frac{1-r^}{1-|y|^{-1}} ]
- r*:基线或GNNs的最低准确率。
- |y|:类别数。
特性:
1. 归一化性能差异,消除类别数影响。
2. 引入复杂度因子(λ),反映数据集难度。
此研究为图学习领域的基准评估提供了重要方法论,并为未来数据集的优化指明了方向。