这篇文档属于类型a(单一原创研究报告),以下是学术报告内容:
研究标题
《iQuest: 基于迭代问题引导的知识库问答框架》
作者与机构
- 第一作者:Shuai Wang(瑞典查尔姆斯理工大学)
- 合作作者:Yinan Yu(瑞典查尔姆斯理工大学)
发表信息
发表于《Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)》,2025年7月27日至8月1日,页码15616–15628。
研究领域
自然语言处理(NLP)中的知识库问答(Knowledge Base Question Answering, KBQA),聚焦多跳推理(multi-hop reasoning)场景。
研究动机
尽管大语言模型(LLMs)在NLP任务中表现优异,但在知识密集型任务中常出现事实性错误。知识图谱(Knowledge Graph, KG)因其结构化、可验证的特性,成为增强LLMs推理可靠性的重要工具。然而,多跳推理面临两大挑战:
1. 推理路径连贯性:模型易在复杂查询中迷失方向(例如图1中“墨西哥”对“热带风暴Fabio”的干扰)。
2. 关键多跳连接丢失:现有方法过度依赖1跳邻域,可能过早丢弃关键路径(例如图1中“哈利·波特电影”与作曲家“约翰·威廉姆斯”的2跳关系)。
研究目标
提出iQuest框架,通过迭代问题分解和图神经网络(GNN)前瞻检索,解决多跳KBQA的路径连贯性与连接丢失问题。
iQuest包含三个核心模块:
- 迭代问题引导(Iterative Question Guidance, IQG-LLM):将复杂问题动态分解为可独立回答的子问题(如将“北太平洋热带风暴Fabio影响区域的官方花卉”分解为“受影响的区域”和“该区域官方花卉”两个子问题)。
- 两跳实体探索(Two-hop Entity Exploration):通过GNN聚合1跳和2跳邻域信息,避免过早丢弃关键路径(算法1步骤3)。
- 答案生成(Answer Extraction LLM, AE-LLM):基于子问题答案合成最终结果。
科学价值
1. 方法论创新:首次将迭代问题引导与GNN前瞻检索结合,为多跳KBQA提供可解释的推理路径。
2. 技术通用性:在4个数据集和4种LLM(包括GPT-4o和Llama 3)上验证了框架的普适性。
应用价值
- 高可靠性场景:适用于医疗、自动驾驶等需结构化知识支持的领域。
- 低成本更新:通过KG而非微调LLM实现知识更新,降低计算开销。
局限性
- 计算开销较高(平均每查询增加3-4次LLM调用)。
- GNN仅支持2跳,对深层推理任务可能不足。
展望
未来可探索动态多跳检索策略,并优化子问题生成的终止条件以提升效率。