这篇文档属于类型a,即报告了一项原创性研究的学术论文。以下是对该研究的详细介绍:
该研究的主要作者包括Guozheng Li、Peng Wang、Jiajun Liu、Yikai Guo、Ke Ji、Ziyu Shang和Zijie Xu,他们分别来自东南大学计算机科学与工程学院、教育部新一代人工智能技术及其跨学科应用重点实验室(东南大学)以及北京计算机技术与应用研究所。该研究发表在《Proceedings of the Thirty-Third International Joint Conference on Artificial Intelligence (IJCAI-24)》上。
关系抽取(Relation Extraction, RE)是自然语言处理(Natural Language Processing, NLP)中的一项重要任务,旨在识别文本中实体之间的关系。尽管大语言模型(Large Language Models, LLMs)在零样本(zero-shot)和少样本(few-shot)学习中展现了显著的上下文学习(In-Context Learning, ICL)能力,但最近的研究表明,当前的LLMs在零样本和少样本关系抽取任务中仍然表现不佳。以往的研究主要集中在设计提示格式和选择优质示例以改进基于ICL的关系抽取。然而,作者认为,如果能从根本上提升LLMs在关系抽取中的ICL能力,零样本和少样本关系抽取的性能将显著提升。为此,作者提出了MICRE(Meta In-Context Learning of LLMs for Relation Extraction),一种新的元训练框架,用于零样本和少样本关系抽取。
研究流程主要包括以下几个步骤:
任务定义:研究考虑了两种关系抽取任务:关系分类(Relation Classification, RC)和关系三元组抽取(Relational Triple Extraction, RTE),并在零样本和少样本设置下进行实验。
元训练框架:MICRE框架通过在多个关系抽取数据集上进行元训练,使LLMs学会在上下文中学习新的关系抽取任务。具体来说,模型在推理时无需参数更新或特定任务模板,仅通过少量训练示例即可有效学习新任务。
表格提示(Tabular Prompting):为了统一不同任务和设置,研究采用了表格提示方法。具体而言,提示中包含表头“|predicate|subject|object|”,模型自动生成表格,其中“|”是表格的可识别分隔符。这种方法适用于零样本和少样本设置,提供了精确的指令信号。
零样本和少样本推理:在推理阶段,模型根据给定的少量训练示例或无训练示例进行预测。对于少样本设置,模型将训练示例与测试输入拼接作为输入,并计算每个候选关系的条件概率,选择概率最大的作为预测结果。对于零样本设置,模型仅根据测试输入进行预测。
实验设计:研究使用了12个公开的关系抽取数据集进行元训练,并在未见过的关系抽取基准数据集上进行评估。实验涵盖了不同模型规模(如GPT-2、T5、LLaMA)和多种设置(如5-way-1-shot、10-way-5-shot等)。
基线对比:研究对比了包括监督微调方法和零样本/少样本提示方法在内的多种基线方法,验证了MICRE的优越性。
零样本关系分类结果:在不同数量的未见关系下,MICRE在Wiki-ZSL和FewRel数据集上均取得了与监督微调方法和零样本提示方法相当或更优的结果。随着模型规模的增大,性能提升尤为显著。LLaMA模型在处理更多未见关系时表现尤为突出,验证了元训练的有效性。
零样本关系三元组抽取结果:MICRE在FewRel和Wiki-ZSL数据集上均显著优于现有方法,特别是在模型参数超过10亿的情况下,性能提升尤为明显。这表明元训练使模型能够更好地理解关系三元组抽取任务。
少样本关系分类结果:MICRE在FewRel数据集上表现出色,特别是在低资源环境下,通过从相似任务中迁移知识,显著提升了少样本关系抽取的性能。LLaMA模型在多个设置下均取得了最佳结果。
少样本关系三元组抽取结果:MICRE在FewRel数据集上显著优于所有竞争方法,并在两个少样本设置下取得了新的最先进结果。即使是较小的模型(如GPT-2和T5-base),MICRE也优于大多数基线方法。
MICRE提出了一种新的零样本和少样本学习方法,通过元训练使LLMs学会在上下文中学习关系抽取任务。该方法在多个基准数据集上均显著优于现有的监督微调和上下文学习方法,展示了其在低资源环境下的强大适应能力。研究还表明,模型规模的增大和多样化的元训练数据集是提升性能的关键因素。
研究还分析了元训练示例数量、元训练数据集数量以及关系标签语义提示对模型性能的影响。结果表明,增加元训练示例数量和数据集数量均能显著提升模型性能,而关系标签的语义提示是模型进行低样本关系抽取的必要条件。此外,研究还对错误预测的未见关系进行了分类分析,揭示了模型在处理复杂关系时的局限性。
MICRE为低样本关系抽取任务提供了一种有效的解决方案,展示了元训练在提升LLMs上下文学习能力方面的巨大潜力。