通过组合实现分布外泛化:基于Transformer中归纳头的研究
大语言模型中的分布外泛化与组合机制研究 论文背景 近年来,大语言模型(Large Language Models, LLMs)如 GPT-4 在处理新颖任务时表现出惊人的创造力,通常只需少数示例即可解决问题。这些任务要求模型在不同于训练数据的分布上进行泛化,即所谓的“分布外泛化”(Out-of-Distribution Generalization, OOD Generalization)。尽管 LLMs 取得了巨大成功,但其如何实现分布外泛化仍是一个未解之谜。本文旨在通过研究 LLMs 在隐藏规则生成的任务中的表现,特别是通过聚焦于一种称为“归纳头”(Induction Heads, IHs)的组件,揭示分布外泛化与组合机制之间的关系。 本文的研究主要针对 LLMs 在符号推理等任务中的表...