本文为一篇典型的原始研究论文,由Seongjun Yun、Minbyul Jeong、Raehyun Kim、Jaewoo Kang*和Hyunwoo J. Kim*完成,隶属于韩国高丽大学计算机科学与工程系。论文发表在“33rd Conference on Neural Information Processing Systems (NeurIPS 2019)”上。本文提出了一种全新的图网络框架:Graph Transformer Networks(GTNs),该研究专注于异构图(heterogeneous graphs)表示学习中的图结构优化问题,并在多个异构图节点分类基准任务上取得了领先表现。
Graph Neural Networks(GNNs,图神经网络)近年来在图数据上的表示学习任务中取得了广泛成功,并在节点分类、链路预测和图分类等任务上达到了SOTA(state-of-the-art)性能。然而,现大多数GNN框架假设图结构是固定且同构的(homogeneous graphs,即只有单一节点和边类型)。这一假设对包含多种节点/边类型的异构图特别不适用。例如:在引文网络中,节点可以是作者、论文或会议,边可以代表作者-论文或论文-会议等关系。传统方法要么忽略这些异构属性,将异构图转换为单一图,要么需要领域专家手动设计meta-paths(元路径)。这些方法的劣势在于需要大量人为干预,且可能遗漏任务关键的图结构。
因此,本文的核心目标是开发一种框架,能够自动生成多跳连接和元路径的图结构,无需领域知识手动干预,并在自动生成的图结构上进行端到端的节点特征表示学习。
本文提出了一种新颖的框架——Graph Transformer Networks(GTNs),用于在异构图上学习新的图结构,使其包含任务相关的元路径(meta-paths)与多跳连接,同时在这些结构上学习有效的节点表示。
GTNs的核心在于“图转换层”(Graph Transformer Layer)。该层通过一种软选择(soft selection)机制从候选边类型中生成新的图邻接矩阵,再通过边关系的复合连接(矩阵乘法)生成多跳邻接矩阵。新生成的图结构能捕获对下游任务有用的元路径。整个过程是端到端且无需领域知识的。
GTNs的工作流程可分为以下几个步骤:
输入数据与特征加载:
图转换层(Graph Transformer Layer):
多层图转换与图卷积结合:
模型训练与优化:
论文在以下三个异构图上进行实验,主要任务为节点分类: 1. DBLP: - 包含节点类型:论文(P)、作者(A)、会议(C),以及四种边类型(PA、AP、PC、CP)。 - 节点特征为论文关键词的词袋表达,节点标签为作者的研究领域。 2. ACM: - 包含节点类型:论文(P)、作者(A)、学科领域(S); - 节点特征为关键词词袋表达,节点标签为论文类别。 3. IMDB: - 包含节点类型:电影(M)、导演(D)、演员(A),以及四种边类型。 - 节点特征来自电影情节描述的词袋表示,节点标签为电影类型。
每个数据集使用标准划分方案,分别保留了训练集、验证集和测试集。本文使用的模型参数在验证集上进行优化。GTNs在DBLP和IMDB数据集上堆叠3层转换层,在ACM数据集上使用2层。
在三个数据集上的F1分数中,GTNs稳定优于所有基线模型,结果如下: - DBLP: GTN 94.18 (vs HAN 92.83) - ACM: GTN 92.68 (vs HAN 90.96) - IMDB: GTN 60.92 (vs GCN 56.89)
分析结果表明,GTNs在无领域知识预定义元路径的情况下,能够生成更有效的图结构,从而学习到更精准的节点表示。
本文提出的Graph Transformer Networks在理论和实际表现上均具有显著的创新性与优越性: 1. 理论贡献: - 提供了学习异构图上新图结构的通用框架,减少了人为干预。 - 自动生成多跳连接和元路径,提升对复杂异构关系的建模能力。 2. 实际价值: - 在节点分类任务中超越现有基线模型,具有实际应用价值。 - 为处理其他异构图任务(如链路预测和图分类)提供了可迁移的新方法。
Graph Transformer Networks代表了一种无需人为干预却能深度挖掘图结构潜力的方法,为异构图表示学习打开了新的研究方向。