本文档属于类型a,是一篇关于持续关系抽取(Continual Relation Extraction, CRE)的原创性研究论文。以下是针对该研究的学术报告:
本研究由以下团队合作完成:
- Huy Huu Nguyen(Vinai Research, Vietnam)
- Chien Van Nguyen 与 Thien Huu Nguyen(Department of Computer Science, University of Oregon, USA)
- Linh Ngo Van*(Hanoi University of Science and Technology, Vietnam,通讯作者)
- Luu Anh Tuan(Nanyang Technological University, Singapore)。
论文发表于 *Findings of the Association for Computational Linguistics: EMNLP 2023*,会议时间为2023年12月6日至10日。
研究领域:自然语言处理(NLP)中的持续关系抽取(CRE)。传统关系抽取(Relation Extraction, RE)模型在固定关系集上训练和测试,但实际应用中需动态学习新增关系,而原有的持续学习方法面临表征漂移(representation shift)问题——模型在学习新任务时,旧任务的特征空间发生偏移,导致性能下降。
研究动机:现有CRE方法未从谱视角(spectral viewpoint)分析表征空间的几何特性。作者提出,若类别的特征向量(eigenvectors)在持续学习过程中保持稳定,则其形状(即数据分布)得以保留,从而缓解遗忘。
目标:通过谱分解验证特征向量稳定性与分类性能的关系,并提出一种基于类级别特征解相关(class-wise feature decorrelation)的正则化方法,提升特征值(eigenvalues),改善持续学习效果。
问题定义与基线模型
谱分析实验
提出方法:类级别特征解相关正则化
实验验证
性能对比(表1)
谱分析验证
科学意义:
- 首次从谱视角分析CRE的表征漂移问题,证实特征向量的稳定性与模型性能直接相关。
- 提出的正则化方法通过数学约束提升特征值,为缓解持续学习中的遗忘问题提供了新思路。
应用价值:
- 可扩展至其他信息抽取任务(如事件检测、实体识别),动态适应新增类别需求。
(注:因篇幅限制,部分细节如超参设置、实验环境等未完全展开,可参考原文附录A.3。)