学术研究报告:PALR——基于大语言模型的个性化推荐框架
作者及机构
本研究的核心作者包括Fan Yang、Zheng Chen、Ziyan Jiang、Eunah Cho、Xiaojiang Huang和Yanbin Lu,均来自Amazon Alexa AI团队(美国西雅图)。论文发表于2018年的学术会议(具体会议名称未明确,文中以“Conference Acronym ’xx”代指),标题为《PALR: Personalization Aware LLMs for Recommendation》。
研究领域与动机
该研究属于推荐系统与自然语言处理(NLP)的交叉领域。近年来,大语言模型(LLMs, Large Language Models)如BERT、GPT-3等在NLP任务中表现卓越,但其在推荐系统中的应用仍处于探索阶段。传统推荐模型(如矩阵分解、序列建模)依赖预训练的物品嵌入(item embeddings),难以处理新物品冷启动问题,且缺乏自然语言解释能力。
研究目标
PALR框架旨在解决以下挑战:
1. 知识鸿沟:LLMs的参数化知识可能未覆盖新物品(如刚发布的商品);
2. 生成不可靠性:LLMs易产生幻觉结果(hallucinatory results);
3. 输入长度限制:无法直接处理大规模物品池的自然语言输入。
研究团队提出通过多阶段任务分解(用户画像生成、候选检索、排序)结合LLMs的推理能力,实现个性化推荐。
PALR分为三阶段:
- 自然语言用户画像生成:利用LLMs分析用户历史行为(如点击、购买),生成高层偏好摘要(如“喜欢流行音乐和奇幻电影”)。
- 候选检索:通过检索模型(如SASRec)从物品池中预筛选50个候选,解决LLMs的生成不可靠性问题。
- 物品排序:将用户历史行为、自然语言画像及候选物品组合为自然语言提示(prompt),输入LLM进行排序。
关键创新:
- 指令微调(Instruction Fine-tuning):基于LLaMA-7B模型,设计两类指令任务:
- recommend:根据用户历史生成未来可能交互的物品;
- recommend_retrieval:从候选列表中检索目标物品。
- 数据增强:通过用户3跳关联(3-hop affinity)扩展短序列,并随机交换指令与标签以提升泛化性。
性能对比:
微调效果:
recommend_retrieval)使模型能精准从候选列表中筛选目标物品。灵活性:
科学价值:
- 首次提出将LLMs的推理能力与推荐任务结合的多阶段框架,突破传统模型依赖静态嵌入的局限。
- 通过指令微调,使LLMs适应推荐场景,解决生成不可靠性与知识鸿沟问题。
应用价值:
- 冷启动优化:利用LLMs的跨领域知识迁移能力,缓解新用户/物品数据稀疏问题。
- 可解释性:生成自然语言推荐理由(如“基于您喜欢的科幻电影推荐”),提升用户信任。
方法创新:
recommend_retrieval),显著提升模型检索能力。效率突破:
扩展性:
(注:文中会议名称、作者及机构名按原文保留未翻译;术语如“instruction fine-tuning”首次出现时标注英文。)