面向多行为对比推荐的KMCLR框架:知识增强与时间感知的学术研究报告
一、 作者、机构与发表信息
本研究的核心作者包括Hongrui Xuan、Bohan Li、Wenlong Wu和Yi Liu,他们均来自Nanjing University of Aeronautics and Astronics(南京航空航天大学),另一位作者Hongzhi Yin来自The University of Queensland(昆士兰大学)。该研究成果以《Knowledge Enhancement and Temporal Aware for Multi-Behavior Contrastive Recommendation》为题,发表于ACM Transactions on Intelligent Systems and Technology期刊,于2025年8月19日在线发表,最终收录于2025年10月出版的第16卷第5期。
二、 学术背景与研究目标
本研究属于人工智能与信息检索领域,具体聚焦于推荐系统方向。在现实世界的在线平台(如电子商务、社交媒体)中,用户与物品的交互通常呈现多类型行为(Multi-typed Interactive Behaviors),例如点击、收藏、加入购物车、购买等。传统的推荐系统大多专注于建模单一类型的行为(如购买),而忽视了这些丰富多样的行为模式所蕴含的深层用户偏好信息。充分利用多行为信息进行推荐至关重要,但面临两大挑战:1)如何利用用户的个性化偏好捕捉多行为间的依赖关系;2)如何解决因目标行为(如购买)的监督信号稀疏而导致的推荐效果不佳问题。
为了应对这些挑战,本研究提出了一种名为KMCLR(Knowledge Enhancement Multi-behavior Contrastive Learning Recommendation)的新型推荐框架。该框架的核心目标是通过结合对比学习与知识图谱,从用户侧(多行为信息)和物品侧(外部知识信息)同时增强表示学习,从而缓解目标行为数据稀疏性问题,并更精准地建模用户偏好。此外,研究还扩展性地探讨了如何利用时间信号来增强多行为推荐在时序场景下的有效性。
三、 详细研究流程与方法
KMCLR框架包含三个核心模块:多行为学习模块、知识增强模块和联合学习模块,并设计了两个对比学习任务。
1. 多行为学习模块 此模块旨在从用户的多行为交互图中提取个性化行为信息,增强用户嵌入表示。 * 研究对象与数据处理:输入为用户-物品多行为交互图,其中包含多种行为类型的边(如点击、收藏)。研究在三个真实世界数据集(Yelp、Tmall、Retail)上进行,用户和物品数量从数万到数十万不等,交互数量超过百万。 * 多行为信息编码与聚合:首先,为每种行为类型使用一个轻量级图神经网络(基于LightGCN和MB-GMN的启发)编码器,学习用户和物品在该行为下的独立表示。为解决单一行为数据稀疏问题,设计了一种跨行为聚合机制,通过可学习的变换矩阵将不同行为的表示聚合起来,形成统一的用户和物品表示。 * 多行为对比学习任务:这是本模块的创新核心。研究者将用户的不同行为视为不同的“视图”,构建对比学习任务。具体而言,将同一用户在不同行为下的表示视为正样本对,将不同用户在不同行为下的表示视为负样本对。通过最小化InfoNCE损失函数,模型学习最大化同一用户不同行为表示的相似性(捕捉行为间粗粒度共性),同时最大化不同用户表示的差异性(捕捉用户间细粒度差异)。这有助于模型利用丰富的辅助行为(如点击)信息来增强对稀疏目标行为(如购买)的预测能力。
2. 知识增强模块 此模块旨在利用外部知识图谱来丰富物品的语义信息,增强物品侧表示,并缓解数据稀疏性。 * 研究对象与数据处理:输入为物品-物品关系知识图谱,由(头实体,关系,尾实体)三元组构成。研究中引用了已有工作构建的知识图谱。 * 物品侧信息编码与聚合:采用基于图注意力机制的邻居聚合方法,根据关系类型计算邻居节点的重要性权重,迭代更新物品节点的表示,以融入知识图谱的结构和语义信息。 * 知识增强与数据扩充:为了构建用于对比学习的多样化视图,研究者采用了两种不同的知识图谱嵌入方法来生成物品表示:TransR(基于翻译距离模型,关注三元组的合理性)和TuckER(基于语义匹配模型,关注潜在语义)。这产生了两个侧重点不同的知识增强图视图。此外,为了减少知识图谱引入的噪声,设计了一种图结构一致性计算方法。通过从两个知识视图中采样子图并计算同一节点在不同子图中表示的相似性,来评估节点的稳定性(抗噪声能力)。稳定性高的节点信息更可靠。 * 知识感知对比学习任务:基于上述步骤,得到了两对不同的图视图对:一对是多行为交互子图与TransR知识图,另一对是另一个多行为交互子图与TuckER知识图。在每个视图对内部,对用户-物品交互图进行消息传播得到节点表示。然后进行对比学习:将同一节点在不同视图(如来自交互子图和知识图)下的表示作为正样本对,不同节点的表示作为负样本对。通过优化对比损失,模型学习融合来自交互图和知识图谱的信息,生成更鲁棒的物品表示。
3. 联合学习模块 此模块负责整合前两个模块学到的表示,并进行最终的优化和预测。 * 表示融合:将多行为学习模块得到的用户/物品表示与知识增强模块得到的表示进行线性加权融合,权重为可调超参数u。 * 优化与训练范式:采用经典的贝叶斯个性化排序损失作为主任务损失,以优化推荐排序性能。研究者提出了一种分阶段联合训练范式:首先,分别预训练多行为对比学习模型和知识感知对比学习模型,让它们在不同视角的数据上学习初始参数空间。然后,将两个模块训练好的节点表示进行加权融合,并在此基础上共同优化主任务BPR损失和两个对比学习损失。这种训练策略有助于更有效地整合自监督信号与主监督信号。
4. 时间感知扩展 针对现实场景中用户偏好随时间演变的特点,研究者进一步设计了一个时间感知多行为编码器,作为对KMCLR框架的补充。 * 方法:该编码器将时间戳信息转换为周期性的位置嵌入,并与行为类型、用户/物品ID嵌入相结合。设计了一种基于时间的协同注意力机制,该机制能够根据历史交互的时间信息,动态调整不同时期交互对当前用户表示的贡献权重。例如,对于“点击”行为,近期数据可能比长期数据更重要;而对于“收藏”行为,更长期的数据可能也包含稳定偏好。通过这种方式,模型能够对用户偏好进行动态建模,区分历史偏好与当前偏好。 * 应用:该时间感知编码器可以替代KMCLR中原有的多行为编码器,形成KMCLR*模型;也可以独立作为一个时间感知的多行为对比推荐模型(TMBcl)使用。
四、 主要研究结果与分析
研究通过在三组真实数据集(Yelp, Tmall, Retail)上的大量实验验证了KMCLR的有效性,评估指标为HR@10和NDCG@10。
整体性能对比(RQ1):KMCLR在所有数据集和指标上均显著优于各类基线模型,包括基于协同过滤的方法(如BPR, LightGCN)、知识感知推荐方法(如KGAT, KGCL)以及先进的多行为推荐方法(如MATN, MBGCN, KHGT, CML)。例如,在Tmall数据集上,KMCLR的HR@10相比当时最佳基线(CML)提升了约9.4%,NDCG@10提升了约15.9%。这充分证明了结合多行为对比学习和知识增强策略的有效性。
消融实验分析(RQ2):
缓解数据稀疏性的能力(RQ3):通过在不同稀疏程度的Retail数据集子集上测试,发现KMCLR在面对高度稀疏数据时,性能下降幅度远小于其他基线模型(如NGCF, KGAT, MBGCN)。这表明KMCLR通过多行为信息和知识图谱的联合引入,能够更有效地利用丰富的上下文信息和辅助语义信息来弥补目标行为信号的不足。
超参数分析(RQ4):实验探索了嵌入维度、图传播层数和融合权重u的影响。发现嵌入维度为32、传播层数为3、融合权重u在0.2-0.3之间时,模型通常达到最佳性能。过大或过小的参数可能导致过拟合或信息利用不足。
缓解噪声影响的能力(RQ5):实验通过调整多行为图的随机丢弃率和知识图谱噪声容忍区间参数,验证了模型对噪声的鲁棒性。结果表明,通过所设计的图结构一致性计算和基于用户偏好的采样概率调整,KMCLR能够有效筛选出稳定、可靠的节点信息,减轻了引入外部知识可能带来的噪声干扰。
时间感知编码器的性能(RQ6):将时间感知编码器集成到KMCLR中(KMCLR*),或单独作为TMBcl模型,其性能均优于不考虑时间信息的KMCLR以及传统的时序推荐方法(如NARM, SR-GNN)和多行为方法。这证明了动态建模用户偏好演化对于提升推荐准确性的价值,特别是在行为模式随时间变化的场景中。
五、 研究结论与价值
本研究提出并验证了KMCLR框架,这是一个用于多行为推荐的知识增强对比学习框架。其主要贡献和结论如下:
六、 研究亮点
七、 其他有价值内容
研究在讨论部分也坦诚地指出了KMCLR的局限性:其框架主要针对多行为推荐场景设计,与需要处理图像、文本等异构数据的多模态推荐在目标和数据结构上存在根本差异。当前架构缺乏专门编码和对齐多模态内容的组件。这为未来的研究方向提供了清晰的指引,例如探索通过适配器模块或对齐技术来桥接行为与模态领域,同时保持KMCLR在行为依赖建模方面的核心优势。