分享自:

基于提示引导的上下文学习在对话查询重写中的应用

期刊:national energy university

本文档属于类型a,即报告了一项原创性研究的学术论文。以下是针对该研究的详细学术报告:


基于提示引导上下文学习的大语言模型对话式查询改写方法研究

作者及机构
本研究由Raymond Wilson、Chase Carter和Cole Graham合作完成,三位作者均来自National Energy University。论文于2025年2月20日提交至预印本平台arXiv(编号arXiv:2502.15009v1),属于计算机科学与语言学交叉领域(cs.CL分类)。


学术背景
研究聚焦于对话式搜索(Conversational Search)中的核心挑战——对话式查询改写(Conversational Query Rewriting)。传统监督学习方法依赖大量标注数据,但在低资源场景(如小语种或垂直领域)中面临数据稀缺问题。近年来,大语言模型(Large Language Models, LLMs)展现出强大的上下文学习能力(In-Context Learning),无需微调即可通过少量示例学习新任务。本研究提出提示引导的上下文学习(Prompt-Guided In-Context Learning)框架,旨在利用LLMs的生成能力,以少量示例实现高质量的查询改写,减少对标注数据的依赖。


研究流程与方法

  1. 提示设计

    • 任务定义:明确要求将依赖上下文的对话查询改写为独立查询(如将”它的首都是哪里?”改写为”法国的首都是哪里?”)。
    • 输入输出规范:结构化定义输入(对话历史+当前查询)和输出(改写后的查询),例如:
      History: [用户:"法国首都是?", 系统:"巴黎"] Query: "它有多少人口?" Rewrite: "巴黎有多少人口?"
    • 上下文示例选择:从TREC和Taskmaster-1数据集中精选2-5个示例,覆盖指代消解(Coreference Resolution)、省略恢复(Ellipsis Recovery)等常见依赖类型。
  2. 模型实现

    • 采用LLaMA-3.1作为基础模型,通过动态提示(Dynamic Prompting)将任务描述、格式规范和示例组合为单一输入。
    • 零样本与少样本对比:设置0/2/5个示例的对照实验,验证上下文示例的必要性。
  3. 实验设计

    • 数据集
      • TREC对话辅助数据集(多轮信息检索对话)
      • Taskmaster-1对话搜索子集(任务导向型对话)
    • 基线模型
      • 监督学习的Transformer序列到序列模型(Previous SOTA)
      • Co3框架的改写器(Rewriter)与简化器(Simplifier)对比模型
    • 评估指标
      • 文本质量:BLEU-4(n-gram匹配)、ROUGE-L(最长公共子序列)
      • 搜索效果:Success Rate@10(前10结果中相关文档占比)、MRR(平均倒数排名)
  4. 数据分析

    • 自动指标通过配对t检验验证显著性差异
    • 人工评估由3名专家对100条改写结果进行盲评,评分维度包括流畅性、相关性和上下文利用

主要结果

  1. 性能优势

    • 在TREC数据集上,提示引导方法BLEU-4达30.5,显著优于监督基线(25.3)和Co3改写器(28.1)。
    • 搜索效果提升更明显:Success Rate@10提高5个百分点(0.57 vs. 0.52),证明改写结果更利于下游检索。
  2. 上下文示例的临界效应

    • 零样本(无示例)性能骤降(BLEU-4=26.8),2个示例即可接近饱和性能(29.7→30.5),显示LLMs的小样本敏感特性
  3. 场景适应性

    • 省略查询(Elliptical Queries)的改写优势最大(Success Rate@10=0.52 vs. 基线0.38),说明该方法擅长从对话历史中推断隐含信息。
    • 长对话(7+轮次)中性能衰减幅度小于基线(Success Rate@10仅降8%),体现对复杂上下文的鲁棒性。
  4. 人工评估验证

    • 65%的改写结果被评委认为更流畅,60%被认为更符合用户意图,62%被认为更充分利用上下文。

结论与价值

  1. 方法论创新

    • 提出首个完全基于提示工程的对话查询改写框架,摆脱了对标注数据和任务特定架构的依赖。
    • 通过系统化的提示设计(任务定义+格式规范+示例选择),实现了LLMs在低资源场景下的高效适配。
  2. 应用价值

    • 为语音助手、电商客服等需要实时查询改写的场景提供轻量级解决方案,仅需更新提示示例即可适应新领域。
    • 证实上下文学习可作为监督学习的可行替代方案,特别适用于标注成本高的长尾语言或专业领域。
  3. 理论意义

    • 揭示了LLMs在对话任务中的隐式上下文建模能力——即使未经微调,也能通过少量示例学习复杂的指代和省略解析模式。

研究亮点

  1. 效率突破
    相比需要百万级标注数据训练的监督模型,本方法仅需5个示例即可达到更优性能,数据效率提升两个数量级。

  2. 可解释性增强
    通过控制提示中的示例类型(如专指代/省略示例),可直观分析模型对不同上下文依赖的处理机制。

  3. 跨任务启发性
    提示设计范式可推广至其他对话任务(如意图识别、槽填充),为LLMs的轻量化应用提供模板。


延伸价值
论文同时开源了提示设计工具包和人工评估协议,后续研究可进一步探索:
- 动态示例选择策略(如基于查询复杂度自动调整示例数量)
- 多模态上下文学习(结合对话中的视觉参考)
- 低资源语言的跨语言迁移应用

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com