分享自:

大型语言模型与协同过滤的结合:一种高效的基于LLM的全能推荐系统

期刊:kddDOI:10.1145/3637528.3671931

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


大型语言模型与协同过滤的融合:高效全能型LLM推荐系统A-LLMRec

作者与机构
本研究由韩国科学技术院(KAIST)的Sein Kim、Hongseok Kang、Seungyoon Choi、Chanyoung Park与NAVER公司的Donghyun Kim、Minchul Yang合作完成,发表于2024年8月的ACM SIGKDD国际会议(KDD ‘24)。

学术背景
研究领域为推荐系统(Recommender Systems),聚焦协同过滤(Collaborative Filtering, CF)与大型语言模型(Large Language Models, LLMs)的融合。传统协同过滤推荐系统(CF-RecSys)在用户-物品交互稀疏的冷启动场景(cold scenario)中表现不佳,而现有基于模态信息(如文本、图像)或LLM的方法虽能缓解冷启动问题,却在交互丰富的热启动场景(warm scenario)中表现逊于传统CF模型。为此,研究团队提出A-LLMRec,旨在通过直接利用预训练CF-RecSys中的协同知识,构建一个在冷/热场景中均表现优异的全能型推荐系统。

研究流程与方法
1. 问题定义与框架设计
- 任务:序列化推荐(Sequential Recommendation),即基于用户历史交互序列预测下一交互物品。
- 数据:使用Amazon的Movies and TV、Video Games、Beauty和Toys四个数据集,用户-物品交互序列以(用户、物品、文本描述、序列)形式组织。
- 核心创新:通过两阶段对齐(alignment)模块,将CF-RecSys的协同知识注入冻结的LLM中,无需微调LLM或CF-RecSys本身。

  1. 阶段一:协同知识与文本知识的对齐

    • 输入处理
      • 物品嵌入(item embeddings)来自预训练的CF-RecSys(如SASRec)。
      • 文本嵌入(text embeddings)通过Sentence-BERT(SBERT)提取物品标题与描述。
    • 对齐网络
      • 设计物品编码器($f{enc}^I$)和文本编码器($f{enc}^T$),均为单层MLP,将两类嵌入映射到同一潜在空间。
      • 损失函数:包含匹配损失($L{matching}$)、重构损失($L{item-recon}$、$L{text-recon}$)和推荐损失($L{rec}$),防止过平滑并保留原始信息。
    • 输出:生成联合协同-文本嵌入(joint collaborative-text embedding),作为阶段二的输入。
  2. 阶段二:联合嵌入与LLM的对齐

    • 投影网络:通过两层MLP将用户表征(user representations)和联合嵌入投影到LLM的令牌空间(token space)。
    • 提示设计(Prompt Engineering)
      • 在提示中嵌入投影后的用户表征和物品嵌入,使LLM直接理解协同知识(如图3示例)。
      • 例如:“[用户表征]是该用户的表征。该用户过去观看过[历史物品标题,物品嵌入]。请从以下候选电影中推荐下一部……”
    • 训练目标:最大化下一物品标题的生成概率(公式8),仅需训练投影网络,LLM和CF-RecSys均保持冻结。

主要结果
1. 整体性能
- 在四个数据集上,A-LLMRec的Hit@1指标均优于传统CF模型(如SASRec)、模态感知模型(如MoRec)和LLM基线(如TALLRec)。例如,在Movies and TV数据集上,A-LLMRec的Hit@1为0.6237,显著高于SASRec的0.6154和TALLRec的0.2345。

  1. 冷/热场景对比

    • 冷启动物品:A-LLMRec在冷物品(bottom 35%交互)上表现最佳(如Movies and TV数据集冷物品Hit@1为0.5714,优于TALLRec的0.2654)。
    • 热启动物品:在热物品(top 35%交互)上,A-LLMRec仍优于纯文本驱动的LLM模型(如Movies and TV热物品Hit@1为0.6880,TALLRec仅0.2987),且接近SASRec的0.6787。
  2. 其他场景验证

    • 冷用户场景:对交互极少的用户,A-LLMRec的Hit@1(0.5272)显著高于SASRec(0.2589),证明其文本理解能力的优势。
    • 跨域推荐:在Movies and TV→Video Games的跨域测试中,A-LLMRec(0.1203)优于直接迁移的SASRec(0.0506)。
  3. 效率优势

    • A-LLMRec仅需训练轻量对齐网络,训练速度比需微调LLM的TALLRec快2.53倍,推理速度快1.71倍。

结论与价值
1. 科学价值
- 提出首个通过对齐协同知识与LLM令牌空间实现全能推荐的框架,解决了冷/热场景不可兼得的难题。
- 证明了冻结的LLM可通过外部知识注入(而非微调)提升推荐性能,为LLM的轻量化应用提供新思路。

  1. 应用价值
    • 模型无关性(Model-agnostic):支持任意CF-RecSys的即插即用,适合工业界快速部署。
    • 语言生成能力:在“喜爱类型预测”任务中,A-LLMRec能生成合理文本输出(如“该用户喜欢喜剧、家庭类电影”),而纯LLM基线(LLM-only)无法理解协同知识。

研究亮点
1. 方法创新
- 两阶段对齐机制首次实现协同知识与LLM的深度融合,且无需微调LLM。
- 通过重构损失和推荐损失的联合优化,避免潜在空间塌缩。

  1. 性能突破

    • 在冷/热场景、冷用户、少样本(few-shot)和跨域场景中均达到SOTA,验证了框架的普适性。
  2. 开源与可复现性

其他价值
研究还探讨了A-LLMRec的扩展性,例如替换CF-RecSys为NextItNet或NCF等非序列模型仍能提升性能(如Beauty数据集上NCF基础版Hit@1为0.2957,A-LLMRec-NCF提升至0.5431),为未来结合更先进的CF模型留下空间。


(注:全文约2000字,完整覆盖研究背景、方法、结果与价值,符合学术报告规范。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com