这篇文档属于类型a,是一篇关于长尾识别(long-tailed recognition)的原创性研究论文。以下是详细的学术报告:
本研究的核心作者包括Bingyi Kang(新加坡国立大学和Facebook AI)、Saining Xie、Marcus Rohrbach、Zhicheng Yan、Albert Gordo、Jiashi Feng(新加坡国立大学)和Yannis Kalantidis(Facebook AI)。论文以会议论文形式发表于ICLR 2020(International Conference on Learning Representations)。
研究领域:计算机视觉中的长尾分布问题(long-tailed distribution problem)。
研究动机:现实世界中的视觉数据通常呈现长尾分布,即少数类别(头部类别,head classes)包含大量样本,而多数类别(尾部类别,tail classes)样本稀少。传统深度学习模型在平衡数据集上表现优异,但在长尾数据中,模型倾向于偏向头部类别,导致尾部类别识别性能显著下降。
研究目标:探索长尾识别中表示学习(representation learning)和分类器学习(classifier learning)的解耦(decoupling)效果,验证数据不平衡是否影响表示学习质量,并提出一种简单高效的分类器调整方法。
研究分为两个阶段:
- 表示学习阶段:使用不同采样策略训练模型,包括:
- 实例平衡采样(instance-balanced sampling):按自然分布采样。
- 类别平衡采样(class-balanced sampling):每类等概率采样。
- 平方根采样(square-root sampling):采样概率与类别样本数的平方根成正比。
- 渐进平衡采样(progressively-balanced sampling):从实例平衡逐渐过渡到类别平衡。
- 分类器调整阶段:固定表示学习模型,调整分类器,方法包括:
- 分类器重训练(CRT, Classifier Re-Training):用类别平衡采样重新训练线性分类器。
- 最近类均值分类器(NCM, Nearest Class Mean):基于特征均值的非参数分类。
- τ-归一化分类器(τ-normalized classifier):直接调整分类器权重范数,公式为:
[ \tilde{w}_i = \frac{w_i}{|w_i|^\tau} ] 其中τ控制归一化强度。
表示学习的关键发现:
分类器调整的效果:
与现有方法的对比:
科学价值:
应用价值:
关键发现:
方法创新:
实验规模:
这篇论文通过严谨的实验设计和创新的解耦思路,为长尾识别领域提供了新的理论基础和实践工具。