基于Variational Representation Learning和LB-SOINN记忆模块的社交媒体仇恨言论终身学习研究
作者及发表信息
本研究由Jing Qian(加州大学圣塔芭芭拉分校)、Hong Wang(加州大学圣塔芭芭拉分校)、Mai ElSherief(佐治亚理工学院)、Xifeng Yan(加州大学圣塔芭芭拉分校)合作完成,发表于*Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies*(2021年6月)。
学术背景
研究领域为自然语言处理(NLP)中的仇恨言论分类(hate speech classification),聚焦终身学习(lifelong learning)场景。传统研究假设数据集静态且类别预定义,但社交媒体数据动态增长且热点话题快速变迁,导致分类器面临灾难性遗忘(catastrophic forgetting)问题。现有终身学习方法在图像分类中表现良好,但仇恨言论任务中不同任务间的相似性低(如Jaccard指数平均仅0.06),传统方法失效。本研究提出结合变分表征学习(Variational Representation Learning, VRL)和负载均衡自组织增量神经网络(Load-Balancing Self-Organizing Incremental Neural Network, LB-SOINN)记忆模块的新方法,旨在动态适应新数据并保留历史知识。
研究流程与方法
1. 任务设计
- 数据集:基于美国反诽谤联盟(ADL)和南方贫困法律中心(SPLC)的仇恨团体推特数据,按15类意识形态(如反穆斯林、白人至上主义)划分为序列任务,每任务包含5000条推文(80%训练,10%开发,10%测试)。
- 任务形式:将仇恨团体识别建模为排序任务(ranking task),模型对推文与候选团体组合打分,损失函数为边际排名损失(margin-based ranking loss)。
模型框架
实验对比
主要结果
1. 性能对比
- 在15任务序列中,本文方法(VRL + LB-SOINN)的宏观F1达5.13%,显著优于EWC(1.95%)和GEM(2.70%)。
- 关键发现:任务间相似性低导致传统正则化方法(如EWC)失效,而记忆回放(memory replay)结合VRL的潜在分布约束能有效缓解遗忘。
消融分析
错误分析
结论与价值
1. 科学价值
- 首次将终身学习框架引入细粒度仇恨言论分类,提出任务间低相似性场景的解决方案。
- VRL通过潜在变量分布蒸馏任务知识,LB-SOINN优化样本选择,两者结合为其他低相似性序列任务提供范式。
研究亮点
1. 方法创新:
- 监督式LB-SOINN:首次将其用于样本重要性评估,而非传统聚类任务。
- 标签条件VRL:扩展VAE至监督学习,潜在空间兼具语义和类别信息。
2. 任务特殊性:
- 突破静态数据集假设,直面社交媒体数据流的非平稳分布挑战。
3. 开源计划:作者承诺公开代码,推动终身学习在NLP中的应用。
其他发现
- 预训练模型局限:直接使用BERT微调(fine-tuning + BERT)因过拟合反而不如BiLSTM,说明灾难性遗忘的主因非模型容量,而在于学习机制。
- 记忆大小影响:RM(随机记忆回放)在早期任务中性能接近LB-SOINN,但任务数增至15时差异显著(F1差距达29.43%),凸显样本选择策略的长期必要性。
(全文共约1500字)