分享自:

基于对比图最短路径搜索的高效会话推荐

期刊:ACM Trans. Recomm. Syst.DOI:10.1145/3701764

这篇文档属于类型a,是一篇关于会话型推荐系统(session-based recommendation)的原创性研究论文。以下为详细的学术报告内容:


作者及机构
本研究由奥地利因斯布鲁克大学(University of Innsbruck)的Andreas Peintner、Amir Reza Mohammadi和Eva Zangerle合作完成,发表于2025年4月的《ACM Transactions on Recommender Systems》(ACM Trans. Recomm. Syst.),标题为《Efficient Session-Based Recommendation with Contrastive Graph-Based Shortest Path Search》。论文是2023年ACM RecSys会议论文的扩展版本。


学术背景

研究领域与动机
会话型推荐系统(SBR, Session-Based Recommendation)旨在通过匿名用户的短期交互序列预测其下一个可能感兴趣的物品(item)。传统推荐系统依赖用户长期行为数据,而SBR面临数据稀疏性、用户意图捕捉困难等挑战。现有基于图神经网络(GNN, Graph Neural Network)的方法通过全局物品关系挖掘会话间的协同信息,但存在两大问题:
1. 噪声问题:原始数据中的不可靠物品关系会干扰模型性能;
2. 计算效率:多层GNN的信息聚合机制复杂度高,难以扩展至大规模物品库。

本研究提出SPARE(Shortest-Path Aware Item Relations)模型,通过最短路径搜索构建去噪的全局物品图,并结合监督对比学习(Supervised Contrastive Learning, SCL)缓解数据稀疏性,实现高效且精准的推荐。


研究流程与方法

1. 全局物品图构建(Global Item Base Graph)

  • 输入:所有会话中的物品序列,构建有向加权图 ( G = (V, E) ),节点 ( V ) 为物品,边 ( E ) 为物品共现频率。
  • 最短路径增强(SPARE策略)
    • 使用Dijkstra算法计算节点间最短路径,路径权重为边权倒数之和。
    • 通过阈值 ( \mu ) 过滤低支持度边(如共现频率低的噪声关系),保留高权重路径作为“快捷连接”(shortcut connections),模拟多层GNN的多跳信息聚合。
    • 创新点:单层图卷积即可捕获长程依赖,避免多层GNN的过平滑问题。

2. 会话编码与表示学习

  • 图卷积操作:对增强后的图 ( \hat{G} ) 进行对称归一化卷积,生成物品嵌入表示 ( \mathbf{h} )。
  • 位置嵌入:引入反向位置编码(reversed position embeddings)捕捉会话中物品的时序重要性。
  • 注意力机制:通过软注意力(soft attention)加权聚合物品表示,生成会话嵌入 ( \mathbf{z} )。

3. 监督对比学习(SCL)

  • 正负样本挖掘
    • 正样本:目标物品相同的其他会话的最后点击物品;
    • 负样本:通过BLEU分数(一种自然语言处理中的序列相似度度量)筛选与当前会话相似但目标物品不同的“困难负样本”(hard negatives)。
  • 损失函数:结合交叉熵损失 ( \mathcal{L}{ce} ) 和对比损失 ( \mathcal{L}{scl} ),优化目标为 ( \mathcal{L} = \mathcal{L}{ce} + \beta \mathcal{L}{scl} )。

4. 预测与优化

  • 使用加权L2归一化(weighted L2 normalization)稳定训练,通过物品与会话嵌入的点积计算推荐得分。

主要结果

实验验证

在四个公开数据集(Tmall、RetailRocket、Last.fm、Gowalla)上的实验表明:
1. 性能优势:SPARE在Precision@20和MRR@20上显著优于现有方法(如GCE-GNN、COTREC等),例如在Tmall上MRR@20提升7.04%。
2. 效率提升:单层图卷积的训练速度比多层GNN快1.56–1.84倍。
3. 消融实验
- 移除最短路径搜索(SPARE-nSP)或对比学习(SPARE-nSCL)均导致性能下降,验证二者必要性。
- BLEU作为相似度度量优于Jaccard等传统方法,尤其在长会话中(如Last.fm)。

关键发现

  • 数据稀疏性处理:SPARE的图稀疏化策略在电商数据(Tmall、RetailRocket)中更有效,而音乐数据(Last.fm)需保留更多连接以缓解流行度偏差。
  • 可扩展性:SPARE的图构建策略可迁移至其他模型(如S²-DHCN),提升其性能并减少训练时间。

结论与价值

  1. 科学价值
    • 提出首个基于最短路径的全局物品图构建方法,为GNN在SBR中的高效应用提供新思路。
    • 开创性地将监督对比学习引入SBR,通过数据驱动的样本挖掘提升表示学习质量。
  2. 应用价值
    • 适用于电商、音乐等实时推荐场景,尤其适合匿名用户会话的短期意图捕捉。
    • 开源代码(GitHub)确保可复现性,促进后续研究。

研究亮点

  1. 方法创新
    • SPARE图构建:通过最短路径实现“去噪”与“信息聚合”的统一。
    • 监督对比学习:结合BLEU度量的负样本挖掘策略。
  2. 性能突破:在多项指标上刷新SOTA(state-of-the-art),同时降低计算成本。
  3. 普适性:策略可泛化至其他图模型,如实验中对S²-DHCN的增强(MRR提升4.62%)。

其他价值

  • 案例研究:以Last.fm用户会话为例,展示SPARE如何通过快捷连接捕捉跨品类兴趣(如摇滚与古典音乐的联系),而传统方法仅能建模局部序列关系。
  • 超参数分析:详细探讨了阈值 ( \mu )、对比学习权重 ( \beta ) 等对性能的影响,为实际应用提供调优指导。

SPARE通过图结构优化与对比学习的结合,为会话型推荐系统提供了高效、可解释的解决方案,兼具理论与实用意义。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com