分享自:

社交媒体上仇恨言论分类的终身学习

期刊:proceedings of the 2021 conference of the north american chapter of the association for computational linguistics: human language technologies

基于Variational Representation Learning和LB-SOINN记忆模块的社交媒体仇恨言论终身学习研究

作者及发表信息
本研究由Jing Qian(加州大学圣塔芭芭拉分校)、Hong Wang(加州大学圣塔芭芭拉分校)、Mai ElSherief(佐治亚理工学院)、Xifeng Yan(加州大学圣塔芭芭拉分校)合作完成,发表于*Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies*(2021年6月)。


学术背景
研究领域为自然语言处理(NLP)中的仇恨言论分类(hate speech classification),聚焦终身学习(lifelong learning)场景。传统研究假设数据集静态且类别预定义,但社交媒体数据动态增长且热点话题快速变迁,导致分类器面临灾难性遗忘(catastrophic forgetting)问题。现有终身学习方法在图像分类中表现良好,但仇恨言论任务中不同任务间的相似性低(如Jaccard指数平均仅0.06),传统方法失效。本研究提出结合变分表征学习(Variational Representation Learning, VRL)和负载均衡自组织增量神经网络(Load-Balancing Self-Organizing Incremental Neural Network, LB-SOINN)记忆模块的新方法,旨在动态适应新数据并保留历史知识。


研究流程与方法
1. 任务设计
- 数据集:基于美国反诽谤联盟(ADL)和南方贫困法律中心(SPLC)的仇恨团体推特数据,按15类意识形态(如反穆斯林、白人至上主义)划分为序列任务,每任务包含5000条推文(80%训练,10%开发,10%测试)。
- 任务形式:将仇恨团体识别建模为排序任务(ranking task),模型对推文与候选团体组合打分,损失函数为边际排名损失(margin-based ranking loss)。

  1. 模型框架

    • 变分表征学习(VRL)
      • 改进传统变分自编码器(VAE),引入标签条件先验分布(label-conditioned prior),强制潜在变量(latent variable)同时编码推文文本和团体标签信息。
      • 损失函数包括重构损失(reconstruction loss)、KL散度(KL divergence)和排序损失,确保潜在空间具有类别区分性。
    • LB-SOINN记忆模块
      • 调整原有无监督LB-SOINN为监督版本,基于节点密度(node density)选择代表性样本存入记忆。
      • 动态分配内存:每新增任务时,按任务数量平分内存容量,淘汰低密度样本。
  2. 实验对比

    • 基线方法:微调(fine-tuning)、弹性权重固化(EWC)、梯度情景记忆(GEM)等。
    • 评价指标:宏观/微观F1分数(macro/micro F1),反映模型在多任务序列中的平均性能。

主要结果
1. 性能对比
- 在15任务序列中,本文方法(VRL + LB-SOINN)的宏观F1达5.13%,显著优于EWC(1.95%)和GEM(2.70%)。
- 关键发现:任务间相似性低导致传统正则化方法(如EWC)失效,而记忆回放(memory replay)结合VRL的潜在分布约束能有效缓解遗忘。

  1. 消融分析

    • 去除KL记忆损失(dklmem):任务数增多后性能下降(宏观F1从5.13%降至3.72%),表明记忆分布对齐对长期学习至关重要。
    • 替换VRL为BiLSTM编码器:微观F1从44.62%降至11.28%,验证VRL对潜在空间结构化的贡献。
  2. 错误分析

    • 初始任务(第1任务)因数据量不足导致重构困难,性能显著低于后续任务(见图3)。作者建议通过大规模推文预训练VAE部分缓解。

结论与价值
1. 科学价值
- 首次将终身学习框架引入细粒度仇恨言论分类,提出任务间低相似性场景的解决方案。
- VRL通过潜在变量分布蒸馏任务知识,LB-SOINN优化样本选择,两者结合为其他低相似性序列任务提供范式。

  1. 应用价值
    • 适用于动态社交媒体环境,如COVID-19期间针对中国的仇恨言论增长900%(L1ght报告),模型可实时适应新仇恨意识形态。

研究亮点
1. 方法创新
- 监督式LB-SOINN:首次将其用于样本重要性评估,而非传统聚类任务。
- 标签条件VRL:扩展VAE至监督学习,潜在空间兼具语义和类别信息。
2. 任务特殊性
- 突破静态数据集假设,直面社交媒体数据流的非平稳分布挑战。
3. 开源计划:作者承诺公开代码,推动终身学习在NLP中的应用。


其他发现
- 预训练模型局限:直接使用BERT微调(fine-tuning + BERT)因过拟合反而不如BiLSTM,说明灾难性遗忘的主因非模型容量,而在于学习机制。
- 记忆大小影响:RM(随机记忆回放)在早期任务中性能接近LB-SOINN,但任务数增至15时差异显著(F1差距达29.43%),凸显样本选择策略的长期必要性。

(全文共约1500字)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com