本研究的核心作者包括Yuhao Yang、Zhi Ji、Zhaopeng Li等来自百度(Baidu Inc.)的研究团队,论文发表于2025年的ACM会议(具体会议名称未明确标注),标题为《Sparse Meets Dense: Unified Generative Recommendations with Cascaded Sparse-Dense Representations》。
研究领域:本文属于推荐系统领域,聚焦于生成式推荐模型(Generative Recommendation)与稠密检索(Dense Retrieval)方法的融合。传统推荐系统面临两大挑战:
1. 生成式方法(如TIGER)通过预测物品标识符(ID)实现推荐,但离散ID会丢失细粒度语义信息;
2. 稠密检索方法(如SASRec)依赖稠密向量(Dense Vectors)虽能捕捉细节,但存储和计算成本高。
研究目标:提出COBRA(Cascaded Organized Bi-represented Generative Retrieval)框架,通过级联的稀疏ID(Sparse ID)与稠密向量动态生成,结合两类方法的优势,提升推荐精度与多样性。
[e1, v1, e2, v2, ...],其中e_t为ID嵌入,v_t为稠密向量。使用Transformer解码器分两阶段预测:
1. 稀疏ID生成:基于历史序列S_{1:t}预测ID_{t+1}的概率分布,公式为:
P(ID_{t+1}|S_{1:t})
2. 稠密向量生成:以ID_{t+1}为条件生成v_{t+1},公式为:
P(v_{t+1}|ID_{t+1}, S_{1:t})
Transformer输入序列依次为历史级联表征(预测ID阶段)和追加新ID嵌入的序列(预测稠密向量阶段)。
联合优化两个损失函数:
- 稀疏ID损失(L_sparse):交叉熵损失,最大化真实ID的似然。
- 稠密向量损失(L_dense):对比学习损失(Contrastive Learning),通过余弦相似度区分正负样本,公式为:
L_dense = -log(exp(cos(v̂_t, v_t)) / Σ exp(cos(v̂_t, v_j)))
φ = softmax(τϕ) × softmax(ψ cos(v̂, a)))排序,平衡准确性与多样性。在Amazon Beauty、Sports、Toys三个子集上的实验结果:
- Beauty数据集:Recall@10达0.0725,比TIGER提升11.9%;NDCG@10达0.0456,提升18.8%。
- Toys数据集:Recall@5达0.0619,显著优于TIGER(0.0521)。
百度广告平台数据(200万广告、500万用户)显示:
- COBRA的Recall@500为0.3716,比仅用稠密向量(w/o ID)高42.2%。
- 消融实验:移除BeamFusion导致Recall@800下降36.1%,证明其关键作用。
科学价值:
1. 提出首个级联稀疏-稠密表征的生成式推荐框架,解决了ID方法的信息丢失问题;
2. 通过BeamFusion机制实现生成与检索的协同,为推荐多样性控制提供新思路。
应用价值:
- 在线A/B测试显示,百度广告平台转化率提升3.6%,用户平均收入(ARPU)提升4.15%。