分享自:

个性化感知的大型语言模型推荐系统

期刊:Proceedings of the ACM ConferenceDOI:https://doi.org/xxxxxxx.xxxxxxx

学术研究报告:PALR——基于大语言模型的个性化推荐框架

作者及机构
本研究的核心作者包括Fan Yang、Zheng Chen、Ziyan Jiang、Eunah Cho、Xiaojiang Huang和Yanbin Lu,均来自Amazon Alexa AI团队(美国西雅图)。论文发表于2018年的学术会议(具体会议名称未明确,文中以“Conference Acronym ’xx”代指),标题为《PALR: Personalization Aware LLMs for Recommendation》。


学术背景

研究领域与动机
该研究属于推荐系统与自然语言处理(NLP)的交叉领域。近年来,大语言模型(LLMs, Large Language Models)如BERT、GPT-3等在NLP任务中表现卓越,但其在推荐系统中的应用仍处于探索阶段。传统推荐模型(如矩阵分解、序列建模)依赖预训练的物品嵌入(item embeddings),难以处理新物品冷启动问题,且缺乏自然语言解释能力。

研究目标
PALR框架旨在解决以下挑战:
1. 知识鸿沟:LLMs的参数化知识可能未覆盖新物品(如刚发布的商品);
2. 生成不可靠性:LLMs易产生幻觉结果(hallucinatory results);
3. 输入长度限制:无法直接处理大规模物品池的自然语言输入。
研究团队提出通过多阶段任务分解(用户画像生成、候选检索、排序)结合LLMs的推理能力,实现个性化推荐。


研究流程与方法

1. 框架设计

PALR分为三阶段:
- 自然语言用户画像生成:利用LLMs分析用户历史行为(如点击、购买),生成高层偏好摘要(如“喜欢流行音乐和奇幻电影”)。
- 候选检索:通过检索模型(如SASRec)从物品池中预筛选50个候选,解决LLMs的生成不可靠性问题。
- 物品排序:将用户历史行为、自然语言画像及候选物品组合为自然语言提示(prompt),输入LLM进行排序。

关键创新
- 指令微调(Instruction Fine-tuning):基于LLaMA-7B模型,设计两类指令任务:
- recommend:根据用户历史生成未来可能交互的物品;
- recommend_retrieval:从候选列表中检索目标物品。
- 数据增强:通过用户3跳关联(3-hop affinity)扩展短序列,并随机交换指令与标签以提升泛化性。

2. 实验设置

  • 数据集
    • Amazon Beauty:22,363用户、12,101物品、198,502交互;
    • MovieLens-1M:6,040用户、3,416电影、999,611评分。
  • 基线模型:包括BPR-MF、NCF、GRU4Rec、Caser、SASRec等传统与序列推荐模型。
  • 评估指标:留一法(leave-one-out)测试,采用HR@10(命中率)和NDCG@10(归一化折损累积增益)。

主要结果

  1. 性能对比

    • PALR-v2(结合检索与排序)在Amazon Beauty和MovieLens-1M上的HR@10分别达到0.0721和0.2110,显著优于SASRec等基线(表2)。
    • PALR-v1(无检索模块)性能较差,验证了候选检索的必要性。
  2. 微调效果

    • 仅用20%用户数据微调即可实现强归纳学习,而传统嵌入模型需全量数据训练。
    • 指令设计(如recommend_retrieval)使模型能精准从候选列表中筛选目标物品。
  3. 灵活性

    • PALR可与任意检索算法(如BERT4Rec、LightGCN)结合,展现框架通用性。

结论与价值

科学价值
- 首次提出将LLMs的推理能力与推荐任务结合的多阶段框架,突破传统模型依赖静态嵌入的局限。
- 通过指令微调,使LLMs适应推荐场景,解决生成不可靠性与知识鸿沟问题。

应用价值
- 冷启动优化:利用LLMs的跨领域知识迁移能力,缓解新用户/物品数据稀疏问题。
- 可解释性:生成自然语言推荐理由(如“基于您喜欢的科幻电影推荐”),提升用户信任。


研究亮点

  1. 方法创新

    • 提出“检索-排序”双阶段框架,平衡LLMs生成长度限制与推荐准确性。
    • 设计任务特定指令(如recommend_retrieval),显著提升模型检索能力。
  2. 效率突破

    • 仅需20%用户数据微调,验证LLMs在小样本下的强泛化能力。
  3. 扩展性

    • 支持多模态信号(如文本、图像)融入提示,为复杂推荐场景(如对话推荐)提供基础。

其他贡献

  • 开源模型:基于LLaMA-7B的微调代码与指令集,为后续研究提供基准。
  • 未来方向:优化LLMs计算效率,探索低延迟部署方案。

(注:文中会议名称、作者及机构名按原文保留未翻译;术语如“instruction fine-tuning”首次出现时标注英文。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com