这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
本研究由Xiaoshuai Song(北京邮电大学)、Yutao Mou(北京邮电大学)、Keqing He(美团)、Yueyan Qiu、Pei Wang和Weiran Xu(北京邮电大学,通讯作者)合作完成,发表于Findings of the Association for Computational Linguistics: EMNLP 2023(2023年12月6-10日)。
研究领域:自然语言处理(NLP)中的意图识别(Intent Recognition),具体聚焦于开放世界场景下的动态意图发现与分类。
研究动机:传统意图分类(Intent Classification, IC)基于封闭集假设,无法处理用户输入的非预设领域(Out-of-Domain, OOD)查询。现有方法如广义意图发现(Generalized Intent Discovery, GID)虽能发现OOD意图并扩展分类器,但存在两大局限:
1. 单阶段学习:仅支持一次性OOD数据学习,无法适应动态数据流;
2. 数据依赖:需存储全部历史数据联合训练,引发隐私和存储问题。
研究目标:提出新任务持续广义意图发现(Continual Generalized Intent Discovery, CGID),旨在从动态OOD数据流中持续自动发现新意图,并以最小历史数据依赖增量更新分类器。
提出原型引导的 replay 与蒸馏学习(Prototype-guided Learning with Replay and Distillation, PLRD),包含以下模块:
1. 主模块:BERT编码器 + 联合分类器(动态扩展新旧类别输出维度)。
2. 子模块:
- 原型引导学习:通过类别原型(Class Prototypes)生成OOD样本伪标签,缓解噪声干扰;
- 特征蒸馏(Feature Distillation):冻结初始阶段编码器,约束当前编码器特征与初始特征的相似性,减少遗忘;
- 记忆模块(Memory):存储少量旧类样本(每类5例)并在新阶段回放,平衡新旧任务学习。
3. 损失函数:联合优化交叉熵损失(Lce)、原型对比损失(Lpcl)、实例对比损失(Lins)和特征蒸馏损失(Lfd)。
科学价值:
1. 任务创新:首次提出CGID任务,推动意图识别向动态开放世界演进;
2. 方法创新:PLRD通过原型引导和蒸馏机制,解决了持续学习中的灾难性遗忘与OOD噪声问题;
3. 基准贡献:构建公开CGID数据集与基线,促进后续研究。
应用价值:为对话系统在真实场景中的持续自适应提供了可行方案,例如客服机器人自动扩展业务意图库。
此报告全面涵盖了研究的背景、方法、结果与意义,可作为同行研究者理解CGID任务与PLRD方法的参考。