分享自:

基于LLM增强的知识感知推荐中的语义表示建模

期刊:information processing and managementDOI:10.1016/j.ipm.2025.104387

这篇文档属于类型a,即报告一项原创性研究的学术论文。以下是对该研究的详细介绍:


LLMKnowRec:基于大语言模型增强的知识感知推荐框架

作者及机构
本研究由 Jianfang Liu(平顶山学院软件学院)、Baolin Yi(中央华中师范大学教育大数据国家工程研究中心)、Huanyu Zhang、Xiaoxuan Shen、Lingling Song、Yu Lei(均为中央华中师范大学教育大数据国家工程研究中心)以及 Hao Zheng(平顶山学院软件学院)共同完成,发表于《Information Processing and Management》期刊2026年第63卷,论文编号104387。研究得到中国国家自然科学基金(62277028)和河南省高等学校重点科研项目(25B520025)的资助。

学术背景
研究领域为知识感知推荐系统(Knowledge-aware recommendation systems),属于人工智能与信息检索的交叉领域。传统推荐系统基于知识图谱(Knowledge Graph, KG)的结构化实体和关系表示建模用户偏好,但存在两大局限:
1. 语义理解不足:传统方法依赖ID嵌入(ID-based embeddings),忽视文本关联信息(如物品描述、关系文本)的深层次语义;
2. 用户意图建模粗粒度:现有方法难以捕捉多维、动态的用户意图(如用户选择电影可能因导演风格或类型偏好等不同因素)。

大语言模型(LLM)的兴起为上述问题提供了新思路。但现有LLM增强的方法存在两大挑战:
- 无法同时建模多维度用户意图;
- 难以捕捉知识图谱中多跳关系路径的语义依赖性。

基于此,作者提出LLMKnowRec框架,旨在融合LLM的语义理解能力与知识图谱的结构化信息,实现更精准的推荐。

研究流程与方法
研究包含以下关键步骤:

  1. LLM嵌入生成器

    • 研究对象:Movielens-1M、Amazon-Books、Last.fm三个公开数据集的物品文本描述(如电影标题、类型、导演)和关系文本(如“导演-电影”关系的自然语言描述)。
    • 方法
      • 使用Mistral E5模型生成物品和关系的语义嵌入(semantic embeddings)。例如,电影《廊桥遗梦》的描述被构造为:“这是一部1995年发布的浪漫电影,片名为《廊桥遗梦》”。
      • 通过最大池化(max-pooling)和L2归一化提取全局嵌入,再通过线性变换层与知识图谱嵌入空间对齐。
    • 创新点:首次将LLM生成的动态语义嵌入与静态ID嵌入结合,增强物品和关系的表示能力。
  2. 用户意图语义建模

    • 研究对象:用户-物品-意图的三元组(如用户选择电影的多重动机)。
    • 方法
      • 构建意图图(Intent Graph),通过注意力机制(公式5-6)融合LLM生成的关系嵌入,生成意图感知的嵌入。
      • 提出多意图对比学习损失(公式9),最大化不同意图嵌入的差异性,避免语义重叠。
    • 创新点:引入门控机制(公式8)动态平衡ID嵌入与LLM语义嵌入的权重。
  3. 关系意图感知聚合

    • 研究对象:知识图谱的高阶关系路径(如“电影→导演→其他电影”的多跳路径)。
    • 方法
      • 在图神经网络(GNN)框架下,设计关系意图感知聚合器(公式14-15),结合用户意图与邻域节点信息。
      • 分层聚合(公式18-21):第一层聚合直接邻居,高阶层迭代捕获多跳语义。
    • 创新点:首次在GNN聚合中显式融合LLM生成的语义关系嵌入。
  4. 模型优化与实验验证

    • 训练策略:采用BPR损失(公式24)优化推荐排序,联合意图对比损失(公式9)提升意图区分度。
    • 实验设计:在三个数据集上对比12个基线模型(如KGAT、KGN-LS、CKGRec),评价指标为Recall@K和NDCG@K(K=5,10,20,50)。

主要结果
1. 性能优势
- LLMKnowRec在所有数据集上显著优于基线。例如,在Movielens-1M上,Recall@10提升13.41%(0.2067 vs. 0.1822),NDCG@10提升12.92%(0.2747 vs. 0.2433)。
- Amazon-Books上NDCG@10提升19.27%,验证了LLM对文本丰富数据集的增强效果。

  1. 消融实验(表6):

    • 移除LLM物品嵌入(w/o-LLMitem)导致Recall@10下降7.9%(Movielens-1M),说明物品语义的关键性。
    • 移除意图建模(w/o-intent)使NDCG@10降低8.8%,证实多意图设计的必要性。
  2. 可解释性

    • 通过LLM生成的关系嵌入(如“导演-电影”的语义描述)提供了推荐理由(如“用户偏好克林特·伊斯特伍德的导演风格”)。

结论与价值
1. 科学价值
- 提出首个统一LLM语义与知识图谱结构的推荐框架,解决了传统方法语义建模不足和意图捕获单一的难题。
- 为推荐系统可解释性研究提供了新范式(通过LLM生成的文本嵌入关联用户行为与物品属性)。

  1. 应用价值
    • 在冷启动场景(如新物品缺乏交互数据)中,LLM生成的语义嵌入可提升推荐准确性。
    • 开源代码(GitHub)支持工业界快速部署。

研究亮点
1. 方法创新
- LLM嵌入生成器首次实现物品文本与知识图谱的语义对齐;
- 关系意图感知聚合器突破了GNN仅依赖拓扑结构的局限。

  1. 跨学科融合

    • 结合自然语言处理(LLM)、图机器学习(GNN)与推荐系统,推动多领域协同发展。
  2. 实验结果

    • 在多个基准上实现目前最高性能,部分指标相对提升超过20%。

其他价值
- 论文详细讨论了LLM计算成本与效果权衡(如选择Mistral而非更大模型),为资源受限场景提供参考。
- 提出的多意图对比学习框架可扩展至其他个性化服务(如广告投放、内容分发)。


(报告总字数:约2000字)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com