解耦大型语言模型中的知识与推理:基于认知双系统理论的探索

解耦大型语言模型中的知识与推理:基于认知双系统理论的探索

解耦大型语言模型中的知识与推理:基于认知双系统理论的探索

杨慕天,高建东†,吴及†
清华大学,北京,中国

summarize摘要

大型语言模型(LLMs)在推理过程中同时利用知识和推理,区分这两者的能力在模型分析、可解释性和开发中起着关键作用。受双系统认知理论启发,我们提出了一个认知归因框架来解耦知识和推理的贡献。具体而言,LLMs的认知被分解为两个不同但互补的阶段:知识检索(Phase 1)推理调整(Phase 2)。为了分离这些阶段,LLMs在两种不同的认知模式下生成答案:快速思考和慢速思考。通过分析不同认知模式下的表现来量化知识和推理的贡献。该架构应用于15个LLMs和3个数据集。结果显示:(1)推理调整是领域特定的,对推理密集型领域(如数学、物理和化学)有益,但可能损害知识密集型领域。(2)参数缩放同时提高了知识和推理,但知识改进更为显著。此外,参数缩放使LLMs的推理更加谨慎,同时适度提高智能。(3)知识主要存在于较低的网络层,而推理在较高层运行。我们的框架不仅有助于从”解耦”角度理解LLMs,还为现有研究提供了新的见解,包括缩放定律、分层知识编辑和小模型推理的局限性。

lightbulb引言

大型语言模型因其卓越的能力而获得了广泛的研究关注[1-3]。在缩放定律的基础上,各种方法(包括预训练、持续预训练和指令微调)被开发出来,将知识注入LLMs。然而,它们的推理能力仍然存在争议,因为它们经常在复杂推理任务中挣扎。

为了解决这一挑战,思维链(CoT)被提出,使LLMs能够通过生成中间推理步骤来模拟人类式的渐进推理。然而,早期生成CoT的方法通常依赖于特定领域的提示工程,缺乏自动生成跨领域通用推理链的能力。

推理LLMs的出现,如OpenAI o1,通过蒸馏和强化学习实现了通用CoT的自动生成。尽管o1的具体细节仍未公开,但广泛的复制工作已成功生产出具有强大推理能力的LLMs。这一突破表明,LLMs不仅拥有广泛的知识,还具有先进的推理能力。

在这种情况下,区分知识和推理的贡献具有重要的科学意义,因为这对于理解LLMs的推理行为至关重要。然而,推理过程中知识和推理的联合使用使得难以辨别它们的贡献。为此,我们提出了一个基于双系统认知理论的认知归因框架,将LLMs的推理分解为两个不同但互补的阶段:(1)知识检索(Phase 1),LLMs通过访问学习到的信息快速生成初始响应;(2)推理调整(Phase 2),它们通过CoT生成来细化初始响应。

psychology认知归因框架的原理

我们的框架基于双系统认知理论,该理论认为人类表现出两个不同但互补的认知阶段:知识检索(Phase 1)和推理调整(Phase 2)。本研究将这些概念映射到LLMs上,假设LLMs也以两个阶段生成答案。在Phase 1中,LLMs纯粹基于输入检索记忆的知识。在Phase 2中,LLMs应用CoT推理来调整这些初始检索结果。

为了分离这些阶段,我们进一步引入了双系统认知理论中的认知模式概念——快速思考和慢速思考。LLMs被提示在每种模式下分别生成响应。

快速思考模式下,LLMs直接基于输入问题x生成响应yfast,不进行任何额外推理。在这种模式下,LLMs仅依赖Phase 1,其性能完全取决于知识检索能力,表示为CKR。该过程正式定义为:

yfast = arg max P(y | x = Question; Cknowledge)

慢速思考模式下,LLMs首先产生类似于快速思考的初始答案yfast,然后通过CoT推理调整初始答案以获得精炼答案yslow。在这种模式下,LLMs经历Phase 1和Phase 2。性能依赖于知识检索能力CKR和推理调整能力CRA,定义为:

yslow = arg max P(y | yfast, x = Question; Cknowledge, Creasoning)

architecture框架架构

我们的认知归因框架通过四个步骤解耦知识和推理:

  1. 定义知识和推理的各自角色:根据双系统认知理论,将LLMs的认知过程映射为知识检索和推理调整两个阶段。
  2. 分离知识检索和推理调整:通过快速思考和慢速思考两种认知模式来分离这两个阶段。
  3. 确定知识检索和推理调整的贡献:评估快速和慢速思考的准确性来衡量检索能力CKR和推理调整能力CRA
    CKR := Afast = (1/|D|) Σx∈D I(yfast = y*)
    CKR + CRA := Aslow = (1/|D|) Σx∈D I(yslow = y*)
    其中Afast和Aslow表示在数据集D上快速和慢速思考的准确性,y*表示真实答案,|D|表示问题总数。通过从方程4中减去方程3,我们得到:
    CRA := δ = Aslow – Afast = (1/|D|) Σx∈D I(yslow = y*) – (1/|D|) Σx∈D I(yfast = y*)
    这个方程表明,慢速和快速思考之间的准确性差异,称为推理增益δ,反映了推理调整能力CRA。最终,我们在方程3和方程5中解耦了知识和推理能力。
  4. 将推理调整分解为纠正和过度思考:基于指示函数的性质,推理调整有两个效果:它纠正了快速思考的错误,但也错误地覆盖了正确答案。我们称这些效果为纠正和过度思考,表示它们相应的准确性变化为δc和δo
    δ = δc – δo = (1/|D|) [rc · |Dfalsefast| – ro · |Dtruefast|]
    其中|Dfalsefast|和|Dtruefast|表示快速思考产生的错误和正确答案的数量。rc和ro表示LLMs纠正错误答案和过度思考正确答案的比率。δ来自两个对立的组成部分:纠正的收益δc和过度思考的损失δo

快速思考提示示例:

问题:一所大学的数学系有10名教授,下学期将开设20门不同的课程。每名教授将被分配教授恰好2门课程,每门课程将恰好有一名教授被分配教授。如果任何教授可以被分配教授任何课程,那么将10名教授分配到20门课程的不同完整分配有多少种可能? 选项: A. 20!/2^(10) B. 10!/2^(9) C. 10^(20) – 2^(10) D. 10^(20) – 100 快速思考答案: A

慢速思考提示示例:

问题:一所大学的数学系有10名教授,下学期将开设20门不同的课程。每名教授将被分配教授恰好2门课程,每门课程将恰好有一名教授被分配教授。如果任何教授可以被分配教授任何课程,那么将10名教授分配到20门课程的不同完整分配有多少种可能? 选项: A. 20!/2^(10) B. 10!/2^(9) C. 10^(20) – 2^(10) D. 10^(20) – 100 慢速思考答案: ### 思考过程 1. **分析问题:** – 问题涉及将10名教授分配到20门课程,每名教授教授恰好2门课程,每门课程由恰好一名教授教授。 – 关键是理解问题的组合性质,涉及为教授选择和分配课程。 2. **总结相关发现:** – 每名教授被分配20门课程中的2门,共有10名教授。 – 课程总数为20门,每门课程被分配给恰好一名教授。 – 可以通过考虑为每名教授选择2门课程的方式数量,然后将教授安排到这些课程中来解决问题。 3. **头脑风暴新想法:** – 一种方法是考虑为第一名教授从20门课程中选择2门,然后为第二名教授从剩余的18门中选择2门,依此类推。 – 另一种方法是考虑将20门课程分配给10名教授的总排列数,但这需要调整,因为每名教授被分配恰好2门课程。 4. **验证当前步骤的准确性:** – 第一种方法涉及计算每名教授的组合,然后乘以这些组合。 – 第二种方法涉及计算排列,然后除以每名教授安排2门课程的方式数(因为每名教授的课程顺序不重要)。 5. **完善任何错误:** – 第一种方法可能会过度计数,因为它没有考虑每名教授课程顺序的不可区分性。 – 第二种方法更准确,因为它考虑了每名教授课程顺序的不可区分性。 ### 解决方案 1. **分配课程的总排列数:** – 将20门课程分配给10名教授的总方式数是(20!)。 2. **调整不可区分性:** – 由于每名教授被分配恰好2门课程,且这些2门课程的顺序不重要,我们需要为每名教授除以(2!)。 – 有10名教授,所以我们除以(2^(10))。 3. **最终计算:** – 不同完整分配的数量是frac{20!}{2^(10)}。 因此,正确答案是:**A. 20!/2^(10)**
图1:快速思考和慢速思考的提示示例及回答

analytics实验结果

我们在15个LLMs上进行了广泛的实验,包括Qwen、LLaMA、Gemma、Phi和GLM,涵盖了从1B到70B的参数规模。实验使用了三个数据集:MMLU作为通用数据集,MathQA和MedQA作为领域特定数据集。

主要发现:

  1. 小模型在推理过程中过度思考多于纠正:虽然推理调整对大多数模型有益,产生正的δ,但对于一些极小的模型,δ变为零甚至负值,因为过度思考的损失δo超过了纠正的收益δc。小模型表现出较低的rc和较高的ro,与较大的模型相比。此外,ro在模型大小之间的变化比rc更为显著。值得注意的是,LLaMA 1B的ro比LLaMA 70B高45.4%,而其rc仅低8.7%。这种不对称性表明,在负推理增益中,显著的过度思考倾向而不是适度的纠正能力起着更大的作用。
  2. 推理表现出显著的领域特定变异性:推理增益δ在13个领域(从自然科学到人文学科)中存在实质性的跨领域变化。值得注意的是,Qwen 1.5B在领域间的准确性差距为34.7%(数学为22.3%,政治学为-12.4%)。虽然领域对推理调整的敏感性各不相同,但它们的相对排名保持稳定。在15个模型中,数学、物理和化学的δ分别有15次、14次和12次排名前3,表明这些领域始终从推理调整中获益最多。相比之下,政治学和历史在10个和9个模型中产生负的δ,表明推理调整甚至损害了它们的性能。
  3. 参数缩放对知识的益处大于推理:虽然缩放定律表明参数缩放提高了LLMs的能力,但尚不清楚缩放是受益于知识还是推理。为了澄清这一点,我们研究了缩放带来的能力提升。结果显示,虽然知识检索和推理调整都从模型缩放中受益,但知识检索的改进更为显著和持续。推理调整主要在从小型模型(1B. 到中型模型(8B)缩放时显示出显著的增益,但超出此范围后表现出有限的改进。
  4. 缩放使推理显著更加谨慎和适度更加智能:参数缩放对不同推理行为的影响存在不对称性。在所有领域中,过度思考率ro的显著减少表明缩放主要增强了模型的谨慎性——特别是其避免引入噪声的能力。特别是,随着较大的模型拥有更大的知识容量,在CoT推理过程中引入错误知识的可能性减少,导致过度思考减少。相比之下,纠正率rc的相对适度和特定领域的改进表明,LLMs的纠正能力对缩放的响应不如过度思考敏感。
  5. 推理发生在LLMs的更深层次:我们观察到一种称为”认知层次”的现象,表明知识检索和推理调整在神经网络内的不同层次上运行。为了量化这一点,我们使用了中心核对齐(CKA),一种神经网络相似性度量。所有CKA曲线在较低层次上显示出初始平台,然后在较高层次上下降,表明较低层次在思考模式之间保持相似,而较高层次则出现分歧。这种模式表明两种模式在较低层次共享知识检索,但慢速思考在较高层次额外参与推理调整。因此,我们的结果表明知识检索和推理调整主要分别定位于较低和较高层次。

insights结论

我们提出了一个认知归因架构,解耦了LLMs中的知识和推理。在这个框架中,LLMs的认知根据双系统认知理论被分解为两个阶段:知识检索(Phase 1)和推理调整(Phase 2)。随后,LLMs在不同的认知模式下被提示生成答案,包括快速思考和慢速思考。快速思考下的表现决定了知识检索的能力,而归因于慢速思考的性能增益量化了推理调整的能力。最终,推理调整被分解为纠正和过度思考。

使用这个架构,我们的发现揭示了:(1)推理调整是领域特定的,有益于推理密集型领域但可能损害知识密集型领域;(2)参数缩放主要增强了知识检索和推理调整,推理调整更为显著。此外,参数缩放使推理调整在所有领域显著更加谨慎,在特定领域适度更加智能。(3)知识检索和推理调整是分层组织的,分别位于较低和较高的网络层。我们的架构不仅为LLMs的认知特性提供了新的视角,还为一些现有研究提供了见解,如缩放定律、分层知识编辑和小模型推理的局限性。

我们的研究存在一些局限性:首先,我们的评估仅限于多项选择问答;未来的工作应将分析扩展到开放式生成。其次,虽然我们研究了15个模型,但未包括超大型模型(>100B. 。第三,虽然我们基于双系统理论定义并量化了知识和推理,但我们的方法仍然简化,可能无法完全捕捉LLMs中的底层机制。此外,本研究主要展示了我们框架的应用。虽然我们使用框架观察到了一些有趣的现象,但由于空间限制,目前无法进行更深入的探索,这仍然是未来工作的方向。

发表评论

人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 知差(chai)网 🐾 DeepracticeX 社区 🐾 老薛主机 🐾