Reddy, G. (2022). Sharp transitions in reinforcement learning: A mechanistic analysis. ✅arXiv preprint arXiv:2206.03426.
Chan, W. , Olsson, C., & Andreas, J. (2022). The data distribution of language drives in-context learning. ✅arXiv preprint arXiv:2209.08841.
Olsson, C. , Chan, W., & Andreas, J. (2022). In-context learning as a form of zero-shot associative learning. ✅arXiv preprint arXiv:2209.08841.
Garg, S. , Aky¨urek, E., & Neyshabur, B. (2022). On the inductive bias of attention-based in-context learning. ✅arXiv preprint arXiv:2205.09340.
Hoffmann, J. , Lu, J., & Lake, B. M. (2023). Eureka moments in transformers: A mechanistic study of emergent abilities. ✅arXiv preprint arXiv:2304.05070.
Singh, S. , Aky¨urek, E., & Neyshabur, B. (2023). In-context learning is transient. ✅arXiv preprint arXiv:2303.02891.
Team, D. L., et al. (2023). Scaling data-centric AI for real-world applications. ✅arXiv preprint arXiv:2303.08687.
Wang, X. , et al. (2022). Towards interpretable deep learning: A review of methods and applications. ✅arXiv preprint arXiv:2203.08687.
Inan, H. , Khosla, A., Oliva, A., & Torralba, A. (2016). Learning to represent images for recognition. ✅arXiv preprint arXiv:1605.09091.
Press, O. , & Wolf, L. (2016). Using the output embedding to improve language models. ✅arXiv preprint arXiv:1608.05859.
大型语言模型(LLM)展现出惊人的“上下文学习”(In-context Learning,ICL)能力,即能够根据输入序列中的示例准确预测新查询的答案,而无需额外更新模型参数。这与传统的“权重学习”(In-weights Learning,IWL)形成鲜明对比,后者通过网络权重编码查询-输出关系。那么,训练数据的分布和模型架构哪些方面会影响 ICL 和 IWL 之间的权衡呢?
近年来,研究表明,语言中固有的特定分布特性,例如突发性(burstiness)、庞大的词典和偏斜的词频分布,会控制这两种学习形式的权衡或同时出现。本文将深入探讨 ICL 背后的机制,并揭示这种能力的“顿悟”时刻是如何产生的。
简单的模型,深刻的发现
为了更好地理解 ICL 的机制,研究人员设计了一个简单的模型,该模型仅包含两个注意力层和一个分类器,并使用一个简化的数据集进行训练。这个模型能够重现过去研究中发现的关于数据分布特性的关键发现。
模型结构:
数据分布参数:
模型训练:
实验结果:
揭秘“顿悟”时刻:诱导头的形成
研究人员发现,在 ICL 过程中,模型的学习过程通常包含两个阶段:缓慢学习阶段和突变阶段。在缓慢学习阶段,模型的准确率会缓慢提高,但注意力机制并没有表现出明显的结构。在突变阶段,模型的准确率突然跃升至接近完美,同时注意力机制也展现出清晰的结构。
注意力机制的变化:
诱导头的形成:
研究人员提出,ICL 的突变阶段是由“诱导头”(Induction Head)的形成驱动的。诱导头是一种由两个注意力层组成的结构,它能够实现“零样本复制”(Zero-shot Copying)的功能,即根据输入序列中的项目-标签对,即使从未在训练数据中出现过,也能预测出新项目的标签。
诱导头的机制:
模型验证:
研究人员构建了一个简化的三参数模型,该模型能够模拟诱导头的核心计算过程,并重现了完整模型的学习动态。实验结果表明,诱导头的形成是 ICL 突变阶段的关键驱动因素。
损失函数的“悬崖”:揭示突变背后的机制
为了进一步理解 ICL 突变阶段背后的机制,研究人员分析了诱导头的损失函数。他们提出了一种现象学模型,该模型包含诱导头和分类器的关键元素。
现象学模型:
模型解释:
模型预测:
结论与展望
本文研究表明,大型语言模型的“顿悟”时刻是由诱导头的形成驱动的,而诱导头的形成则是由损失函数的“悬崖”所造成的。这项研究为理解 ICL 的机制提供了新的视角,并为未来研究提供了新的方向。
未来研究方向:
参考文献: