分享自:

大型语言模型知识自适应推荐框架的工业应用研究

期刊:Association for the Advancement of Artificial Intelligence

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


一、研究团队与发表信息

本研究由Jian Jia(快手科技)、Yipei Wang(东南大学)等来自Kuaishou TechnologySoutheast University的研究团队完成,发表于2025年AAAI(Association for the Advancement of Artificial Intelligence)会议。

二、学术背景

研究领域:推荐系统(Recommendation Systems, RS)与大型语言模型(Large Language Models, LLMs)的交叉领域。
研究动机:当前推荐系统主要依赖ID嵌入(ID embedding)捕捉用户-物品的潜在关联,但忽视了物品文本描述的语义信息,导致冷启动(cold-start)和长尾(long-tail)场景表现不佳。LLMs具备强大的文本理解与推理能力,但直接将其应用于推荐系统面临计算复杂度高、领域知识迁移困难(如“灾难性遗忘”,catastrophic forgetting)等问题。
研究目标:提出LEARN(LLM-driven Knowledge Adaptive Recommendation)框架,通过融合LLMs的开放世界知识(open-world knowledge)与推荐系统的协同知识(collaborative knowledge),提升推荐性能。

三、研究方法与流程

1. 框架设计

LEARN采用双塔结构(twin-tower),包含用户塔(user tower)和物品塔(item tower),每塔由内容提取模块(CEX)偏好对齐模块(PAL)组成:
- CEX模块:冻结预训练LLM(如Baichuan2-7B)参数,将其作为物品文本编码器,生成内容嵌入(content embedding)。
- PAL模块:通过12层Transformer(基于BERT-base配置)将内容嵌入映射到推荐任务所需的用户/物品嵌入(embedding),采用因果注意力(causal attention)建模序列依赖。

2. 数据与训练

  • 数据集
    • 工业数据集:来自短视频平台电商场景,覆盖1200万用户、3100万物品的10个月交互数据(前9个月为历史数据,最后1个月为目标数据)。
    • 公开数据集:Amazon Review数据集(6类商品),用于公平对比。
  • 训练策略
    • 自监督对比学习:最大化用户嵌入与正样本物品嵌入的相似性,最小化与负样本的相似性。
    • 两阶段采样:随机采样历史交互以建模用户兴趣,加权采样近期交互(权重公式见原文)以强化当前偏好。

3. 创新方法

  • LLM-to-Rec知识迁移:与传统的“Rec-to-LLM”(将推荐数据转为文本输入LLM)不同,LEARN通过投影(projection)将LLM的开放世界知识适配到推荐领域。
  • 参数冻结与轻量化:冻结LLM参数以避免灾难性遗忘,仅训练PAL模块的轻量参数(89M),显著降低计算成本。

四、主要结果

1. 公开数据集性能

在Amazon Review的6类数据集上,LEARN在Recall@10指标平均提升13.95%,显著优于ID嵌入(如GRU4Rec)、ID-文本混合(如FDSA)和纯文本方法(如RecFormer)。例如:
- Instruments类:Recall@10提升17.87%(从0.1052至0.1240)。
- Games类:Recall@10提升29.45%(从0.1039至0.1345)。

2. 工业场景验证

  • 在线A/B测试:在4亿日活用户的短视频平台部署LEARN,9天内实现:
    • CVR(转化率)提升:稳态增长约2%。
    • 长尾用户收益:冷启动用户收入提升1.56%,长尾用户提升5.79%。
  • AUC指标:用户加权AUC(wUAUC)提升0.76个百分点(pp)。

3. 消融实验

  • 对齐策略必要性:直接使用LLM内容嵌入(“w/o align”)导致性能崩溃(如Arts类Recall@10仅0.0633),验证开放世界与推荐领域的知识鸿沟。
  • 物品塔变体对比:序列到序列对齐(item tower (a))优于序列到单物品(item tower (b))和“Rec-to-LLM”适配(item tower ©)。

五、研究结论与价值

科学价值
1. 提出首个通过LLM知识迁移解决推荐领域泛化性问题的框架,为LLMs与推荐系统的结合提供新范式。
2. 证明冻结LLM参数+轻量适配器的有效性,避免灾难性遗忘的同时降低计算负担。

应用价值
- 在工业级推荐场景中验证了可行性,尤其提升冷启动和长尾物品的推荐效果。
- 为替代传统ID嵌入提供了语义嵌入(semantic embedding)的实践方向。

六、研究亮点

  1. 领域对齐创新:通过“LLM-to-Rec”投影解决知识迁移中的领域差异问题。
  2. 高效部署:仅需训练89M参数(相比ID嵌入的2.3B参数),适合大规模工业应用。
  3. 多场景验证:覆盖公开数据集与真实工业场景,结论具有普适性。

七、其他价值

  • 开源贡献:实验代码与工业数据集细节为后续研究提供基准。
  • 方法论扩展性:CEX与PAL模块设计可适配其他模态(如图像)的推荐任务。

此报告全面涵盖了研究的背景、方法、结果与意义,可供学术界与工业界研究者参考。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com