标签: AGI

  • 《思考的缓慢:人类行为的悖论》

    🌌 引言:思维的速度与感知的鸿沟

    在我们的日常生活中,感知似乎是无缝的,信息的流动如同涓涓细流。然而,深入探讨后,我们会发现人类思维的速度与感知的速度之间存在着巨大的鸿沟。根据加州理工学院的研究,尽管我们的感官系统能够以每秒约 10 亿比特的速度收集数据,但我们的思维过程却仅能以每秒 10 比特的速度进行。这一发现不仅揭示了人类思维的局限性,也为神经科学的研究提供了新的视角。

    🧠 神经元的速度限制

    研究的核心在于揭示大脑为何在处理信息时存在速度限制。大脑中有超过 850 亿个神经元,其中三分之一专门用于高级思维,位于大脑皮层。尽管单个神经元能够传递超过 10 比特每秒的信息,但为何整体思维速度却远低于这一水平?这一问题引发了对神经元功能和大脑结构的深入思考。

    1. 信息处理的基本原理

    在信息论的框架下,思维速度的测量可以通过对人类行为的观察来实现。例如,在打字时,熟练的打字员每分钟可以输入 120 个单词,每个单词平均 5 个字符,这意味着每秒大约 10 次按键。通过计算每个字符的信息量,我们可以得出打字员的思维速度约为 10 比特每秒。这一计算过程的关键在于如何区分信号和噪声,确保我们只关注对任务有实际贡献的信息。

    2. 算法实现的细节

    在研究中,Zheng 和 Meister 提出了一个信息论框架,能够量化人类行为的信息传递速率。以下是算法实现的具体步骤:

    步骤 1:数据收集

    首先,研究团队需要收集大量关于人类行为的数据。这些数据可以来自多种来源,包括实验室实验、日常生活中的观察以及现有的文献资料。每种行为的时间尺度和信息速率都需要被记录。例如,研究人员可以记录打字、阅读、游戏等活动的时间和表现。

    步骤 2:信号与噪声的区分

    在数据收集后,研究人员需要明确每种行为的信号和噪声。例如,在打字实验中,记录每次按键的时间和字符,同时排除由于手指动作产生的微小变异。为了实现这一点,可以使用高精度的计时设备和数据记录软件,以确保每次按键的时间精确到毫秒。

    步骤 3:熵的计算

    使用香农熵公式计算每种行为的信息量。熵的计算公式为:
    $$H(A. = -\sum_{i} p(a_i) \log_2 p(a_i)$$
    其中 $p(a_i)$ 是第 $i$ 个动作的概率分布。该公式的核心在于通过计算不同动作发生的概率,来量化行为的复杂性和不确定性。

    步骤 4:信息率的估算

    根据收集的数据,计算每种行为的信息率。信息率的计算公式为:
    $$I = H(A. – H(A|C)$$
    其中 $H(A|C. $ 是在已知上下文的情况下,下一秒执行某个动作的条件熵。通过这一公式,研究人员能够量化在特定上下文中,个体行为的可预测性。

    步骤 5:结果分析

    将不同类型的行为进行比较,分析其信息率的差异,探索人类行为的普遍规律。研究团队可以使用统计分析软件对结果进行可视化,帮助识别不同任务之间的模式和趋势。

    3. 行为信息速率的实证研究

    在对不同人类行为的研究中,Zheng 和 Meister 发现,无论是打字、阅读还是玩游戏,信息速率普遍维持在每秒 10 比特左右。这一发现挑战了我们对人类认知能力的传统看法,并提出了新的研究方向。

    3.1 打字行为的分析

    以打字为例,研究人员通过观察多个打字员的表现,记录每个打字员在特定时间内的输入字符数。通过计算每个字符的信息量,结合打字员的输入速度,最终得出打字行为的信息速率约为 10 比特每秒。这一结果表明,尽管打字员的输入速度较快,但信息的实际传递速度却受到限制。

    3.2 阅读行为的分析

    在阅读实验中,研究人员记录参与者的眼动轨迹和阅读速度。通过分析参与者在阅读特定文本时的停顿和回视,研究人员能够量化阅读过程中的信息处理速率。结果显示,阅读行为的信息速率也在每秒 10 比特左右,进一步验证了人类认知的普遍限制。

    3.3 游戏行为的分析

    在游戏行为的研究中,研究团队观察了专业玩家在进行复杂游戏时的表现。通过记录玩家在游戏中的决策速度和反应时间,研究人员发现,尽管玩家在高强度的游戏环境中表现出色,但其信息处理速率依然保持在每秒 10 比特左右。

    🔍 未来研究的方向

    研究团队强调,未来的神经科学研究应当关注以下几个方面:

    • 大脑架构的编码机制
      进一步探索大脑如何编码单一思维的限制,尤其是在复杂任务中如何进行信息筛选。
    • 进化与认知的关系
      研究人类大脑在进化过程中如何适应环境,理解为何我们只能同时处理一条思维路径。
    • 技术应用的前景
      探索如何利用这一发现来改进脑机接口技术,提升人机交互的效率。

    🌐 结论:思维的缓慢与生存的智慧

    人类思维的缓慢并非缺陷,而是我们在特定生态环境中生存的结果。我们的祖先选择了一个相对缓慢的生态位,这使得以每秒 10 比特的速度进行思考在大多数情况下足以应对生存挑战。未来的研究将继续揭示这一悖论背后的深层机制,帮助我们更好地理解人类思维的本质。


    参考文献

    1. Zheng, J. , & Meister, M. (2024). The Unbearable Slowness of Being: Why do we live at 10 bits/s? arXiv:2408.10234v2 [q-bio.NC].
    2. Caltech. (2024). Thinking Slowly: The Paradoxical Slowness of Human Behavior. Retrieved from https://www.caltech.edu/about/news/thinking-slowly-the-paradoxical-slowness-of-human-behavior.

  • 🌱 从简单到复杂:课程演示选择在上下文学习中的应用

    在当今快速发展的人工智能领域,大型语言模型(LLMs)如同璀璨的明星,凭借其在自然语言处理(NLP)任务中的卓越表现赢得了广泛的关注。然而,这些模型的潜力并不止于此。随着我们对它们能力的深入挖掘,我们发现了一个关键挑战:如何选择适当的演示以充分发挥LLMs的能力。为了应对这一挑战,研究者们提出了“课程演示选择”(Curriculum Demonstration Selection, CDS)这一新颖的方法。

    🎓 理论基础:课程学习的魅力

    课程学习的理念源于教育学,强调从简单到复杂的学习过程。想象一下,一个孩子在学习骑自行车时,首先会在平坦的地面上练习,逐步适应后才会挑战更陡的坡道。这种循序渐进的学习方式不仅适用于人类,也同样适用于机器学习模型。CDS正是基于这一理念,通过将训练样本按复杂度划分,从而帮助LLMs逐步掌握不同难度的任务。

    在CDS方法中,研究者首先对数据集进行复杂度测量,将其分为多个不同的难度层次。然后,模型从每个层次中选择演示,以确保所选演示包含广泛的复杂度范围。这种方法不仅提高了模型在简单任务上的表现,还显著提升了其在解决复杂问题时的能力。

    🔍 演示选择的重要性

    在上下文学习(In-Context Learning, ICL)中,演示的选择对模型的表现至关重要。研究表明,合适的演示集可以显著影响模型的性能。然而,现有的演示选择方法往往依赖随机选择或启发式方法,这可能导致不一致和次优的结果。相对而言,CDS通过系统化地选择演示,从而确保了不同难度任务的平衡代表性。

    例如,研究者们在数学推理和常识推理等任务上进行了大量实验。结果表明,CDS方法在提高模型性能方面表现出色,尤其在更复杂的问题上,其优势更加明显。这些实验不仅验证了CDS的有效性,也为未来的研究提供了重要的启示。

    🧪 实验设计与结果分析

    在实验中,研究者选择了多个基准数据集,包括MATH数据集和ARC-Challenge数据集,以评估CDS的性能。通过对比不同选择方法的结果,CDS在多个模型上都表现出了显著的提升。例如,在MATH数据集上,CDS在数学问题的解决率上比传统方法提高了约6%。这种显著的提升表明,CDS在处理复杂任务时的有效性,正如一位优秀的教师能帮助学生更好地理解复杂概念一样。

    以下是实验结果的一个示例表格,展示了不同模型在MATH数据集上的表现:

    模型准确率(CDS)准确率(KATE)准确率(随机选择)
    Llama 2 7B5.66 ± 0.294.93 ± 0.274.58 ± 0.33
    Llama 3 8B27.09 ± 0.5227.14 ± 0.1825.91 ± 0.25
    Mistral 7B14.89 ± 0.0314.90 ± 0.3012.71 ± 0.26

    如上表所示,CDS方法在多数情况下都超越了其他选择方法,展示了其在复杂任务中的优势。

    🌟 CDS的应用与未来展望

    随着CDS方法的不断完善,未来我们可以期待它在更多领域的应用。例如,在代码生成、机器翻译等任务中,CDS有望进一步提升模型的性能。同时,研究者们也意识到CDS在课程结构上的一些限制,比如依赖于人为标注的复杂度衡量。因此,未来的研究可能会探讨更为灵活的复杂度评估方法,以提高CDS的适用性。

    总之,CDS不仅为演示选择提供了一种系统化的方法,更为LLMs的性能提升开辟了新的思路。它如同一把钥匙,开启了更高效的上下文学习之门,帮助模型在面对各种复杂任务时游刃有余。

    ✉️ 参考文献

    1. Duc Anh Vu, et al. “Curriculum Demonstration Selection for In-Context Learning.” SAC’25, 2025.
    2. Liu, et al. “Demonstration Selection for In-Context Learning,” 2024.
    3. Zhao, et al. “kNN-ICL: Nearest-Neighbor Search for Prompt Engineering,” 2023.
    4. Kaplan, et al. “Scaling Laws for Neural Language Models,” 2020.
    5. Drozdov, et al. “Prioritizing Hard Demonstrations in Learning,” 2021.

    通过对CDS方法的深入探索和应用,我们期待在未来看到更加强大的语言模型在各个领域的精彩表现。

  • 动态标记化对大型语言模型的改造

    摘要

    在当今的自然语言处理(NLP)领域,大型语言模型(LMs)如同冰山一角,潜藏着巨大的潜力。然而,现有的语言模型通常依赖于固定的子词标记器,这一选择往往被视为理所当然,结果却是导致在非英语语言上的表现不佳,且在新的领域或语言中应用这些模型时面临挑战。为了解决这些问题,我们提出了一种动态标记化的方法,旨在根据输入文本动态决定标记边界。通过对编码器风格模型引入一种基于字节对编码(BPE)的子词合并算法,我们在批量层面上合并频繁的子词序列,并运用预训练的嵌入预测超网络动态计算标记嵌入。我们的实验表明,动态标记化在不损失任务性能的情况下,平均减少超过20%的标记序列长度,同时提升了跨语言的公平性。

    1 引言

    语言模型是现代自然语言处理应用的核心,能够实现高级的语言理解和生成。然而,它们的有效性在很大程度上依赖于标记器,这一过程将原始文本分割为更小的单位称为标记(Minaee et al., 2024;Minixhofer et al., 2024)。传统的子词标记器在多语言背景下经常出现过度分割的问题,使得模型在不同语言间的表现不平衡,增加了推理成本,降低了整体模型的有效性(Ahia et al., 2023)。因此,开发一种能够根据输入文本动态调整标记边界的标记化方法是十分必要的。

    2 背景与相关工作

    2.1 标记器的定义

    根据Uzan等(2024)和Minixhofer等(2024)的定义,标记器可以由词汇V和标记化函数T构成。现有的标记器主要分为字符级、字节级、子词和词标记化方法。尽管字符级和字节级方法可以处理稀有词,但它们在处理速度上较慢,而子词标记化则由于词汇限制,常常面临不适应新数据的挑战(Nawrot et al., 2022)。

    2.2 动态标记化的提出

    本研究提出的动态标记化通过适应性调整标记边界,能够在处理数据时实时更新词汇和标记化函数。这种方法不仅在编码器模型中应用,还扩展到解码器模型,通过引入近似最近邻索引实现快速生成,展示出动态标记化在处理大规模词汇时的可扩展性。

    3 方法

    3.1 动态标记化的实现

    动态标记化的核心在于通过对输入数据的批量处理,更新初始标记化函数。我们引入BPE风格的合并算法,以减少输入数据的过度分割,从而实现更紧凑的表示。在这一过程中,超网络被用来生成任何标记的嵌入参数,允许模型根据批量数据动态调整标记。

    3.2 词汇扩展与自动回归生成

    为了在解码器中有效应用动态标记化,我们扩展了初始词汇,构建了一个包含一百万个标记的词汇表,并结合近似最近邻索引,实现了快速的标记生成。这种方法有效解决了传统大型词汇带来的模型参数分配不均的问题。

    4 实验设置

    我们的实验使用XLM-R作为多语言编码器模型,并以MISTRAL-7B的基础和指令版本作为解码器模型,通过XNLI和UNER数据集评估动态标记化的有效性。我们比较了原始嵌入、快速词汇迁移嵌入和超网络嵌入的效果,结果表明动态标记化显著提高了推理速度,并在多语言间实现了更公平的计算分配。

    5 结果与讨论

    5.1 编码器结果

    通过动态标记化,我们在XNLI数据集上实现了平均22.5%的序列长度减少,任务性能损失小于2%。与传统的子词标记化相比,这一方法在效率和跨语言公平性方面表现出色。

    5.2 解码器结果

    在解码器模型中,我们观察到动态标记化可以在保留模型参数分配的同时,处理更大规模的词汇,提升生成速度。尤其是在使用一百万个标记的设定下,动态标记化展现出了良好的可扩展性。

    6 结论

    本研究提出了一种新颖的动态标记化方法,通过超网络动态生成嵌入,克服了传统静态标记化的局限性。实验结果表明,该方法有效减少了标记序列长度,提高了推理效率,并在多语言场景中实现了更公平的模型表现。未来的工作将致力于进一步优化这一方法,以应对更复杂的语言和领域需求。

    参考文献

    1. Minaee, S. , et al. (2024).
    2. Minixhofer, B. , et al. (2024).
    3. Ahia, F. , et al. (2023).
    4. Uzan, O. , et al. (2024).
    5. Nawrot, A. , et al. (2022).

  • 🤖 一统江山:自然语言如何统摄沟通、感知与行动

    摘要

    近年来,人机交互领域的研究重心逐渐转向开发能够理解复杂人类指令并能在动态环境中执行任务的机器人。这些系统的应用范围广泛,从个人助理到工业机器人,无不强调机器人与人类灵活、自然且安全的互动。本论文介绍了一种先进的机器人动作规划架构,集成了通信、感知和以大型语言模型(LLMs)为基础的规划。我们的系统旨在将自然语言表达的命令转化为可执行的机器人动作,同时结合环境信息,并根据实时反馈动态更新计划。

    1. 引言

    1.1 背景与动机

    机器人技术的发展正如熊熊燃烧的火焰,而这火焰的最新催化剂便是大型语言模型(LLMs)的引入。LLMs在自然语言理解和常识推理方面表现出色,极大地提升了机器人的指令理解能力。然而,LLMs自身无法独立进行规划,它们需要与能够理解环境、机器人的能力和状态的架构相结合。这项研究旨在赋予机器人理解用户请求并在多样环境中自主生成可执行计划的能力。

    1.2 研究目标

    传统机器人系统通常依赖于静态的、预先编程的指令或封闭世界的预定义知识,这限制了它们在动态环境中的适应性。与人类在复杂环境中的日常任务交互打破了这些假设。LLMs和视觉语言模型(VLM)可以提供开放领域知识来表示新条件,而无需人为干预。然而,过于详细的信息可能导致不切实际的计算需求和响应时间,而忽略关键信息可能导致失败。我们的目标是通过引入执行控制和故障管理,增强LLM基础的机器人系统的鲁棒性和灵活性。

    1.3 方法概述

    我们提出的系统通过实时感知模块和集成执行控制和故障管理的规划模块来应对动态环境的挑战。系统包括一个控制器,用于监控任务执行并检测错误,而解释器分析失败并根据过去的经验提出调整建议。通过这种反馈回路,系统能够自适应地重新规划,使其能够根据需要修改其行动。特别是,我们提出使用ReAct框架,通过技巧、机器人的物理动作以及感知动作来扩展其操作空间,以从环境中获取信息。

    2. 相关工作

    2.1 语言模型在机器人规划中的应用

    大量文献探讨了LLMs在机器人任务规划中的利用。最近的研究强调了LLMs在机器人规划中的潜力。例如,DEPS引入了一种在开放世界环境(如Minecraft)中为代理规划的迭代方法。它利用LLMs分析执行中的错误并完善计划,从而改善推理和目标选择过程。然而,这种方法主要在虚拟环境中开发和测试,与现实世界的动态和不可预测的自然差异显著。此外,DEPS不利用先前的问题和解决方案,而仅依赖于人类和视觉语言模型(VLM)的反馈。

    2.2 场景图作为环境表示

    场景图作为表示机器人环境的一种手段越来越受欢迎。它们提供了一种结构化的空间和语义信息表示方法。某些研究采用3D场景图来表示环境,并使用LLMs生成规划域定义语言(PDDL)文件。这种方法将长期目标分解为自然语言指令,并通过解决子目标来提高计算效率。然而,它缺乏在执行过程中基于反馈重新规划的机制,这可能会限制其在动态场景中的适应性。

    3. 系统架构

    我们的系统基于两个主要组件:

    3.1 感知模块

    感知模块负责感知和解释环境。它以有向图的形式构建并维护一个语义地图,该地图集成了几何和语义信息。

    3.2 规划模块

    规划模块利用感知模块提供的信息制定计划和行动,使机器人能够执行特定任务。图1展示了这些组件如何交互,以便机器人理解其环境并相应地采取行动以满足用户请求。感知模块使用机器人传感器提供的数据为规划模块提供语义地图,后者则处理这些信息以生成特定的行动计划。

    3.3 规划模块的构成

    规划模块被设计为将用户请求(以自然语言表达)转化为机器人可执行的具体行动。该模块负责理解指令、规划适当的行动,并在动态环境中管理这些行动的执行。规划模块由五个子模块组成:

    • 任务规划器:将用户请求(以自然语言表达)翻译为一系列高级技能。
    • 技能规划器:将高级技能翻译为具体的低级可执行命令。
    • 执行者:执行由技能规划器生成的低级行动。
    • 控制器:监控行动的执行并管理过程中的任何错误或意外事件。
    • 解释者:通过分析从控制器接收到的数据解释执行失败的原因,并向任务规划器提供关于如何调整计划的建议。

    4. 任务规划器

    任务规划器的决策过程由策略驱动,策略通过LLM实现。策略是定义基于当前状态或上下文选择行动的规则。

    任务规划器使用ReAct框架实现,该框架在过程中交替进行推理和行动阶段。在推理阶段,任务规划器可以访问各种“感知”行动以从环境中收集信息,如语义地图和机器人当前状态,也可以执行一个或多个“技能”行动以执行物理行动。

    在我们的工作中,我们通过两种类型的行动扩展了代理的动作空间:

    • 技能行动:涉及与环境的物理交互,例如操控物体或导航。技能行动的结果提供了新的反馈以更新当前上下文。
    • 感知行动:涉及从环境中获取信息,如查询语义地图或传感器,并将该信息整合到上下文中。

    5. 技能规划器

    一旦提出执行技能的高级请求,技能规划器负责将任务规划器提供的高级技能翻译为机器人可执行的低级命令序列。技能规划器操作过程包括三个功能:

    1. 前提条件验证:在将技能翻译为低级命令之前,技能规划器验证执行所需的前提条件是否满足。
    2. 目标节点提取:根据技能的参数,技能规划器从语义地图中提取目标节点。
    3. 低级命令的生成:当前提条件满足时,技能规划器将技能翻译为控制机器人行为的低级命令序列。

    6. 执行者

    执行者负责直接与机器人的硬件交互,以执行技能规划器提供的命令。它通过控制各种硬件元件(如电机、机器人手臂抓取器和其他执行器)将低级命令翻译为物理动作。

    7. 控制器

    控制器负责在命令执行过程中监控机器人的状态和环境,确保它们按计划执行。在每个命令执行后,执行者发送反馈,指示成功或失败。如果发生故障,它将导致整个技能的失败。

    8. 解释者

    解释者在执行阶段发生故障时,通过为任务规划器提供见解来增强规划过程。解释者通过搜索包含特定技能和用户请求相关失败记录的数据集来分析故障,并提供建议。

    9. 行为示例

    为了说明所提出系统在动态环境中的行为,考虑一个场景:机器人被要求从房间的桌子上取下一个瓶子并放置在另一个房间的指定区域。系统必须对意外变化做出反应,例如任务过程中瓶子被外部代理移动。

    10. 结论

    所提出的规划系统展示了显著的优势,尤其是在其适应性和与机器人的多样技能无缝配合以执行复杂任务方面。系统的核心优势在于其通过自然语言处理解释用户命令的能力,将其转化为高级行动,然后进一步精炼为低级可执行任务。通过集成来自感知模块的实时环境反馈,系统能够动态调整以应对意外情况,如障碍物或执行失败。

    通过此架构,任务规划器、技能规划器、控制器和解释者组件协同工作,确保即使在变化环境中任务执行也能顺利进行。该系统在Oversonic Robotics开发的类人机器人RoBee上的实施已展示了其实际潜力,使其成为需要先进人机交互和适应性的不确定环境应用中的一种有价值工具。


    参考文献

    1. Simone Colombani, Dimitri Ognibene, Giuseppe Boccignone. “One to rule them all: natural language to bind communication, perception, and action”. University of Milan & Oversonic Robotics, 2024.
    2. DEPS: A Method for Iterative Planning in Open-World Environments.
    3. Scene Graphs in Robotic Environment Representation.
    4. ReAct Framework for Robotic Task Planning.
    5. Oversonic Robotics: RoBee Humanoid Robot Specifications.
  • 幻影脑与色氨酸:从神经递质到意识的奇妙旅程

    在科学的浩瀚海洋中,偶尔会出现一些新奇的术语,比如“色氨酸幻影脑”(tryptophan phantom brain)。尽管这一概念并未在主流科学文献中被正式提出,但它却为我们提供了一个独特的视角,去探索色氨酸在大脑功能中的关键作用,以及它可能如何与“幻影”现象(如幻肢痛)或意识的神秘本质产生联系。本文将带领你深入了解色氨酸的科学背景,并尝试解构这一术语背后的潜在含义。


    🌌 色氨酸:大脑的“快乐分子”起点

    色氨酸是一种必需氨基酸,顾名思义,它是我们身体无法自行合成的,必须通过饮食摄取。虽然它的名字听起来像是某种化学实验室的产物,但它却是我们日常生活中不可或缺的“幕后英雄”。

    🧠 从色氨酸到血清素:神经递质的炼金术

    色氨酸的故事始于它在体内的转化路径。它是血清素(5-羟色胺,5-HT)的前体,而血清素则是调节情绪、睡眠、认知和行为的重要神经递质。这个转化过程可以被看作是一场化学的“炼金术”:

    1. 第一步:羟化反应
      色氨酸在酶“色氨酸羟化酶”的作用下被转化为 5-羟色氨酸(5-HTP)。这一步是整个过程的“限速步骤”,因为色氨酸羟化酶的活性受到多种因素的调控。
    2. 第二步:脱羧反应
      5-HTP 随后被“芳香族氨基酸脱羧酶”转化为血清素。至此,这种神经递质终于可以在大脑中发挥作用。

    公式化表达为:
    $$ \text{Tryptophan} \xrightarrow{\text{Tryptophan Hydroxylase}} \text{5-HTP} \xrightarrow{\text{Aromatic L-amino acid decarboxylase}} \text{Serotonin (5-HT)} $$

    🌞 血清素的多面角色

    血清素被称为“快乐分子”,但它的功能远不止于此。它像一个多才多艺的演员,在不同的舞台上扮演不同的角色:

    • 情绪调节:血清素水平的波动与抑郁、焦虑等情绪障碍密切相关。
    • 睡眠与觉醒:它是褪黑素的前体,参与调控昼夜节律。
    • 认知功能:血清素在学习、记忆和决策中扮演重要角色。

    🦶 幻肢现象:大脑的“幽灵信号”

    在讨论“幻影脑”之前,我们先来看一个更为人熟知的现象——幻肢痛。幻肢痛是指失去肢体的患者仍然感受到来自该肢体的疼痛或其他感知。这种现象揭示了大脑的惊人塑性:即使外部刺激来源已经消失,大脑仍然能够生成感知信号。

    🧩 幻肢与大脑的重塑

    幻肢现象的核心在于大脑的感官地图(sensory map)。当肢体被截肢后,大脑中对应区域的神经元并不会立即“退休”,而是可能被邻近区域的信号重新激活。例如,失去手臂的患者可能会在触摸脸颊时感受到“手”的存在。

    那么,这与色氨酸或血清素有什么关系呢?虽然目前没有直接证据表明色氨酸参与幻肢现象,但血清素作为神经递质,可能通过调节神经元的兴奋性和突触可塑性,间接影响大脑对幻觉的生成和感知。


    🌀 “幻影脑”与意识的边界

    “幻影脑”这一术语或许可以被理解为一种对大脑生成虚拟感知或意识现象的隐喻。它可能涉及以下几个方面的科学探索:

    🧬 神经递质与虚拟感知

    血清素不仅参与情绪调节,还可能在更深层次上影响意识的构建。例如,某些致幻剂(如 LSD 和裸盖菇素)通过作用于血清素受体,能够引发强烈的幻觉体验。这表明血清素系统在生成虚拟感知和意识体验中可能扮演重要角色。

    🌌 量子效应与意识

    近年来,一些科学家提出了量子力学可能在意识生成中发挥作用的假设。例如,微管(microtubules)被认为是神经元内的量子计算平台。虽然这一理论尚未被广泛接受,但有趣的是,色氨酸分子在光学和量子化学中具有独特的荧光性质,这可能为探索其在量子生物学中的作用提供线索。


    🍽️ 饮食与大脑:色氨酸的来源

    既然色氨酸如此重要,我们如何确保摄入充足呢?以下是一些富含色氨酸的食物:

    • 火鸡和鸡肉:感恩节的火鸡不仅美味,还能提升你的血清素水平。
    • 坚果和种子:杏仁、南瓜子是色氨酸的良好来源。
    • 乳制品:一杯温牛奶不仅助眠,还能补充色氨酸。
    • 香蕉:这是一种方便又健康的色氨酸零食。

    然而,仅仅依靠饮食增加色氨酸摄入并不一定能显著提高血清素水平,因为色氨酸需要与其他氨基酸竞争穿过血脑屏障。


    🔮 未来展望:从色氨酸到意识的科学之旅

    尽管“色氨酸幻影脑”这一概念尚未被科学界正式定义,它却为我们提供了一个探索大脑功能和意识本质的独特切入点。从色氨酸在血清素合成中的关键作用,到它可能与幻觉和虚拟感知的潜在联系,这一旅程充满了未知和可能性。

    未来的研究或许能够揭示色氨酸在大脑中的更多奥秘,甚至帮助我们更好地理解意识的生成机制。毕竟,在科学的世界里,每一个看似奇特的概念,都可能是通往新发现的大门。


    📚 参考文献

    1. Young, S. N. (2007). How to increase serotonin in the human brain without drugs. Journal of Psychiatry & Neuroscience, 32(6), 394–399.
    2. Ramachandran, V. S., & Hirstein, W. (1998). The perception of phantom limbs. Brain, 121(9), 1603–1630.
    3. Hameroff, S. , & Penrose, R. (2014). Consciousness in the universe: A review of the ‘Orch OR’ theory. Physics of Life Reviews, 11(1), 39–78.
    4. Fernstrom, J. D. (2013). Role of precursor availability in control of monoamine biosynthesis in brain. Physiological Reviews, 93(3), 1487–1519.
    5. Nichols, D. E. (2016). Psychedelics. Pharmacological Reviews, 68(2), 264–355.
  • 🎭 Marco-o1:开放性推理模型探索

    🌟 引言

    今天我们要揭开一个引人入胜的故事——Marco-o1,一个专为开放性问题而生的推理模型。在这个人工智能的新时代,我们不再拘泥于标准答案,而是勇敢地迎接那些模棱两可、奖励难以量化的挑战。

    在这场科学的探险中,Marco-o1不仅在数学、物理和编程等领域大展身手,还将目光投向了那些需要开放式解答的领域。我们的问题是:“o1模型是否能够有效地推广到没有明确标准且奖励难以量化的更广泛领域?”答案就在我们即将展开的篇章中。

    🧠 核心技术

    1. 链式思维微调与蒙特卡罗树搜索

    Marco-o1的背后蕴含着强大的技术支持。我们利用链式思维(CoT)微调和蒙特卡罗树搜索(MCTS)来提升模型的推理能力。这就像给一位侦探配备了放大镜和地图,让他能更清晰地梳理线索,找到隐藏在迷雾中的真相。

    • 链式思维微调(CoT):通过微调,Marco-o1能够更好地处理复杂任务。我们使用开放的CoT数据集和自创的数据集进行微调,让模型能够在复杂问题中游刃有余。
    • 蒙特卡罗树搜索(MCTS):在推理过程中,MCTS为模型提供了探索多个推理路径的能力。通过软性最大化应用于log概率的置信度评分,模型能够找到最优解。

    2. 推理行动策略与反思机制

    在推理的旅途中,我们引入了推理行动策略和反思机制。这就像是给模型配备了一个小助手,时时刻刻提醒它“再想想,可能哪里出错了”。

    • 推理行动策略:通过不同粒度的行动策略,我们优化了搜索效率和准确性。无论是大步还是小步,Marco-o1都能保持最佳状态。
    • 反思机制:我们给模型加入了一个反思环节,鼓励它在每次推理之后自我反省。这一机制显著提高了模型解决复杂问题的能力。

    📊 数据集与微调

    在Marco-o1的成长过程中,数据集的选择至关重要。我们采用了监督微调策略,利用多种数据集增强模型的推理能力。

    • Open-O1 CoT数据集(过滤版):通过启发式和质量过滤,我们优化了Open-O1项目的CoT数据集,让模型能够有效地采用结构化的推理模式。
    • Marco-o1 CoT数据集(合成):利用MCTS生成的合成数据集,帮助模型构建复杂的推理路径。
    • Marco指令数据集:我们认识到强大的指令执行能力在处理复杂任务中的重要性,因此引入了一套指令数据,确保模型在广泛任务中保持有效性。

    🧩 解决方案空间扩展

    节点与行动

    在MCTS框架中,每个节点代表着一个推理状态,而可能的行动则是由LLM生成的输出。这些输出代表着推理链中的潜在步骤或小步骤。在推理过程中,我们计算每个状态的价值,通过置信度评分来引导MCTS的搜索。

    计算置信度评分

    对于每个生成的令牌,我们通过应用softmax函数计算其log概率和前5个备选令牌的log概率,得到置信度评分。这个评分反映了选定令牌相对于最佳备选令牌的相对概率,从而在0到1之间归一化。

    公式为:

    $c_i = \frac{\exp(p(t_i))}{\sum_{k=1}^{5} \exp(p(t_k))}$

    其中,$c_i$为第$i$个令牌的置信度评分,$p(t_i)$为第$i$个令牌的log概率,$p(t_k)$为前5个预测令牌的log概率。

    最终,我们计算所有令牌的平均置信度评分,得到整体奖励评分:

    $v = \frac{1}{n} \sum_{i=1}^{n} c_i$

    🔍 推理行动策略

    行动选择

    在我们的实验中,我们观察到以行动为单位的MCTS搜索粒度较粗,可能导致模型忽略解决复杂问题所需的细微推理路径。为此,我们探索了不同粒度的MCTS搜索:

    • 步骤为行动:让模型生成完整的推理步骤作为行动。尽管效率较高,但可能错过细粒度的推理路径。
    • 小步骤为行动:使用32或64个令牌的小步骤作为行动,这种更细的粒度扩展了解决方案空间,提高了模型导航复杂推理任务的能力。

    思考后的反思

    我们引入了一个反思机制,通过在每次思考过程结束时添加“等等!也许我犯了一些错误!我需要从头开始重新思考。”这句话,促使模型自我反思并重新评估其推理步骤。这样做显著提高了模型在解决困难问题时的表现。

    🎓 实验结果

    在Qwen2-7B-Instruct的基础上,我们使用我们的训练数据进行SFT,创建了Marco-o1-CoT。我们还在MCTS树搜索框架内使用不同的行动策略进行实验:

    • Marco-o1-MCTS(步骤):使用每个推理步骤作为行动。
    • Marco-o1-MCTS(64个令牌的小步骤):使用64个令牌的小步骤作为行动。
    • Marco-o1-MCTS(32个令牌的小步骤):使用32个令牌的小步骤作为行动。

    在MGSM数据集的英语(En)和中文(Zh)子集上进行测试,结果如下:

    模型MGSM-En (准确率)MGSM-Zh (准确率)
    Qwen2-7B-Instruct84.23%76.80%
    Marco-o1-CoT85.60%71.20%
    Marco-o1-MCTS(步骤)90.40%80.00%
    Marco-o1-MCTS(64个令牌的小步骤)88.40%80.40%
    Marco-o1-MCTS(32个令牌的小步骤)87.60%82.40%

    结果表明,MCTS增强的模型在Marco-o1-CoT的基础上展示了改善,特别是在MGSM-zh数据集上,32个令牌的小步骤策略的准确率最高。

    🔄 翻译任务中的案例研究

    为了展示我们的Marco-o1模型在翻译任务中的能力,我们进行了一个案例研究,将其与Google翻译进行比较。在翻译口语和俚语表达时,我们的模型在理解上下文和细微差别方面表现出色,提供了更准确和自然的翻译。

    🏁 结论与展望

    我们的Marco-o1通过集成链式思维微调、蒙特卡罗树搜索和新颖的推理行动策略,提高了推理能力。通过MCTS的集成,我们不仅扩展了解决方案空间,还通过不同粒度的搜索探索展现了更高的准确性。

    展望未来,我们计划通过结果奖励建模(ORM)和过程奖励建模(PRM)来优化MCTS的奖励信号,从而减少随机性并进一步提高性能。此外,我们正在探索强化学习技术,以微调Marco-o1的决策过程,最终提高其解决复杂现实世界任务的能力。


  • 🎭 打破学术文章的枯燥:幽默与AI的奇妙结合

    🧠 引言

    如今,大型语言模型(LLMs)已经成为AI领域的耀眼明星。这些模型通过预训练学到了海量的知识,并通过监督微调(SFT)来适应特定的人类指令,从而在特定领域的数据集上表现出色。然而,获取高质量的SFT数据集并不是一件容易的事。就像是寻找一颗完美的珍珠,你需要在沙滩上仔细筛选贝壳。

    在这篇文章中,我们将探索一个略带喜感的数据来源——“弱智吧”,一个中文网站,用户在上面提出“愚蠢”的问题以更好地理解某些话题。你可能会问:“这些‘愚蠢’的问题真的能帮助大型语言模型变得更聪明吗?”嗯,不要小看这些问题,它们背后有着深刻的教育学、心理学和认知科学的内涵。

    🎨 方法论:愚蠢问题的奥秘

    在我们开始之前,让我们先来认识一下什么是“愚蠢”的问题。有一个经典的例子:“既然人体的70%是水,那是否意味着每10个人中就有7个是水伪装的?”这些问题表面上看似荒谬,但背后往往隐藏着逻辑陷阱、幽默和抽象思维。

    🎯 数据集的构建

    我们的研究首先使用GPT-4分析了若智吧问题的成功案例,定义了一组解释性规则。这些规则不仅帮助我们理解数据集的内在逻辑,还为构建新的高质量数据集提供了指导。通过这些规则,我们期望生成的数据能够在不同的任务中表现出多样性和适用性,从而提升模型在广泛任务上的性能。

    🌱 数据增强

    我们使用这些规则对MMLU训练集的数据进行增强,生成了八个不同的数据集。让我们来看看其中一个规则——“模糊概念边界”。它挑战隐含假设,通过将一个场景中的想法应用到另一个场景中来揭示细微的、依赖于上下文的真理。这种方法鼓励一种更加灵活和适应的思维方式。

    🔍 数据过滤和混合策略

    为了探索不同规则在不同学科或任务上的影响,我们设计了数据过滤和混合实验。通过计算困惑度(PPL)选择样本,我们提出了两种策略:选择困惑度最高的样本和选择困惑度最低的样本。这些策略帮助我们发现,单一规则增强的数据集比混合数据集更有效地提高了LLM的性能。

    🚀 实验结果

    我们的实验结果显示,使用“愚蠢”规则生成的数据集在MMLU测试集上的总体性能提升了约0.54%。然而,与直接使用种子数据集进行微调相比,这种方法并没有进一步提高整体性能。更细致的分析显示,不同规则生成的数据集对SFT模型在不同学科和任务上的表现有不同的影响。

    🌍 学科层面的分析

    在学科层面上,提取的规则往往会降低SFT模型在“STEM”学科上的表现,而在“人文学科”上则有轻微的提升。例如,使用“社会现象、双关语或流行词”规则生成的数据集在整体MMLU测试集上的表现略优于种子数据集(66.28%对66.27%)。

    🧩 任务层面的分析

    细致到任务层面的分析显示,在特定任务上,不同规则生成的数据集往往产生一致的性能变化。我们的分析表明,不同规则对任务表现的影响一致性超过60%。这意味着,尽管规则之间有差异,但其应用于适当任务时可能较为一致地影响模型性能。

    🎭 结论

    总的来说,我们的研究揭示了若智吧数据源的微妙影响。尽管从若智吧提取的规则在STEM相关任务上往往降低了性能,但在哲学思考和社会现象、双关语或流行词等领域则提供了适度的提升。这表明,生成规则的选择可能不如它们在适当任务中的应用那么重要。这一见解对于指导高质量SFT数据集的开发至关重要,强调了将数据特征与特定领域和任务相匹配以优化LLM性能的重要性。

    📚 参考文献

    1. Achiam, J. , et al. (2023)
    2. Dubey, A. , et al. (2024)
    3. Hui, W. , et al. (2024)
    4. Jiang, Z. , et al. (2024a)
    5. Liu, B. , et al. (2024a)

  • 🌟 知识图谱、大型语言模型与幻觉:NLP视角的深度探讨

    🧵 引言:语言模型的光辉与阴影

    当我们谈及 大型语言模型(LLMs) 的时候,脑海中往往浮现出它们的无限潜力。正如《星际穿越》中的量子机器人,它们能驾驭复杂的语言任务,从文本生成到问答系统,从写诗到预测代码。然而,正所谓“月有阴晴圆缺,人有悲欢离合”,LLMs 的能力背后也隐藏着一个不容忽视的阴影—— 幻觉(hallucinations)

    幻觉是什么?简单来说,这是 LLMs 在生成看似合理却完全不符合事实的内容时出现的现象。例如,当你问某个模型埃及金字塔的建造年份,它可能信口开河地回答“18世纪”,这不仅令人哭笑不得,还可能导致严重的误导,尤其是在医疗、法律等事实敏感领域。

    但别急,科学界从不轻易退缩。近年来,研究者提出了一种聪明的解决方案—— 知识图谱(Knowledge Graphs, KGs)。这些图谱就像一座座百科全书型的迷宫,储存着真实世界中的实体(节点)和它们的关系(边)。将 KGs 与 LLMs 结合,或许能为幻觉问题带来一线曙光。

    本论文正是站在 NLP(自然语言处理)的前沿,探讨如何利用知识图谱来缓解大型语言模型的幻觉问题。我们深入分析了目前的研究现状,讨论了数据集、模型设计以及评估方法的优劣,并指明了未来研究的方向。


    📚 背景:LLMs 与幻觉的共舞

    🌀 幻觉的多样性

    幻觉的出现并非单一的错误,而是多种形式交织的复杂现象。如图 1 所示,不同类型的幻觉包括:

    1. 世界知识相关的幻觉:模型生成的内容与客观事实冲突。例如,错误地描述历史事件的时间或地点。
    2. 自相矛盾型幻觉:模型在同一段对话中给出前后矛盾的回答。
    3. 上下文违背型幻觉:生成的内容与用户提供的提示或上下文完全不符。

    尽管某些情况下,幻觉可能被用作创造性任务(如艺术创作)的灵感来源(Perkovic et al., 2024),但在诸如问答、信息检索和推荐系统等需要高准确性的领域,幻觉无疑是一个重大的障碍。

    🔑 知识图谱的潜力

    知识图谱是以结构化方式存储的事实集合,能够作为一种补充手段,为语言模型提供上下文信息,从而避免完全依赖模型内部的“记忆”。与重新训练语言模型(这是一项昂贵且耗时的任务)不同,知识图谱可以在推理阶段实时提供最新的事实。


    🛠️ 方法概述:如何融合知识图谱与语言模型

    如图 2 所示,知识图谱可以在模型的不同阶段进行整合:

    1. 预训练阶段:在模型训练时直接引入知识图谱信息。
    2. 推理阶段:在生成内容时通过提示或架构调整引入知识图谱。
    3. 后处理阶段:在模型生成输出后,通过知识图谱验证内容的准确性并进行修正。

    以下我们逐一探讨这些方法的优劣势。

    🎓 预训练中的知识整合

    一种方法是将知识图谱三元组(例如,”巴黎 -> 是 -> 法国的首都”)直接融入模型的预训练过程中。例如,Sun et al. (2021) 提出了一种通过掩码实体预测任务将知识注入文本的方法。这种方法的优势在于,模型在训练时就能学习到广泛的事实知识。然而,这种方法的缺点在于知识的静态性——一旦模型训练完成,更新知识需要重新训练整个模型。


    🤔 推理中的知识注入

    推理阶段的知识注入主要通过提示(prompting)完成。例如,将用户的查询与相关的知识图谱信息结合,形成一个新的提示输入模型。然而,提示法也有其固有的局限性:

    1. 上下文窗口限制:模型的输入长度有限,可能导致信息丢失。
    2. 提示格式的敏感性:模型对提示的措辞非常敏感,稍有变化可能导致截然不同的输出。

    为此,研究者提出了 上下文感知解码(context-aware decoding)技术,通过动态调整模型对提示中知识的优先级来提高生成内容的准确性(Shi et al., 2024)。


    🩹 后处理与输出修正

    后处理方法的核心思想是:生成内容后,利用知识图谱验证其准确性,并对错误部分进行修正。例如,Guan et al. (2024) 提出了一个五阶段管道系统,依次进行内容生成、事实提取、验证、修正。虽然这一方法在理论上能够显著提高内容的可靠性,但其多阶段设计也增加了出错的风险和计算成本。


    🔍 幻觉的评估方法:从粗到细

    幻觉的评估是解决问题的第一步。然而,这一任务并不简单,因为幻觉往往涉及语义层面的问题,而非简单的语法错误。

    🌟 现有评估指标

    目前常用的评估指标包括:

    • BERTScoreBARTScore:通过比较生成文本与参考文本的语义相似性来评估内容的正确性。
    • 文本蕴涵:使用模型判断生成内容是否与事实知识相符。

    然而,这些方法通常只能捕捉整体的语义偏差,而无法检测到细粒度的错误(例如,一个单词的错误可能导致整个句子的意思发生重大变化)。

    🪞 精细化评估的必要性

    为此,研究者提出了一些更细粒度的评估工具。例如,FELM 基准(Zhao et al., 2024)能够在句子层面评估幻觉,而 MuShroom-2025 数据集甚至可以在文本片段(span)层面检测幻觉。


    🌐 多语言的挑战与机遇

    幻觉问题在低资源语言中尤为严重,因为这些语言缺乏足够的训练数据。此外,当前的大多数知识图谱和评估数据集都集中于英文,这进一步限制了语言模型在多语言场景中的应用。

    研究者建议通过多语言知识图谱(如 Kaffee et al., 2023)来解决这一问题。这些图谱不仅可以改善低资源语言的知识覆盖,还能帮助模型在多语言环境中实现一致的表现。


    🚀 未来研究方向

    通过本文的讨论,我们总结出以下几个关键的未来研究方向:

    1. 大规模多语言数据集:构建包含知识图谱三元组的大规模数据集,以支持模型的训练和评估。
    2. 细粒度幻觉检测:开发能够在文本片段层面检测幻觉的工具。
    3. 摆脱提示依赖的知识整合方法:研究一种更高效、更稳定的知识整合方法,而非依赖于易碎的提示工程。
    4. 多方法组合研究:探索不同知识整合方法的协同作用,以设计更可靠的系统。
    5. 跨语言研究:在幻觉检测和消除中引入多语言支持。

    📜 结论

    知识图谱与大型语言模型的结合为解决幻觉问题提供了希望。然而,这一领域仍然充满挑战,尤其是在多语言支持、细粒度评估以及知识整合方法的多样性方面。我们相信,通过 NLP 和语义网社区的共同努力,这些挑战终将被克服。


    📚 参考文献

    1. Augenstein, I. , et al. (2024). “On the Factuality of Language Models.”
    2. Zhang, X. , et al. (2023). “A Comprehensive Survey on Hallucinations in LLMs.”
    3. Guan, Y. , et al. (2024). “Retrofitting LLM Outputs Using Knowledge Graphs.”
    4. Zhao, L. , et al. (2024). “FELM Benchmark for Fine-Grained Hallucination Evaluation.”
    5. Kaffee, L. , et al. (2023). “Multilingual Knowledge Graphs: Challenges and Opportunities.”

  • 欢迎来到幻觉与认知的世界

    大数据、深度学习和语言模型的时代里,我们的生活已经被人工智能(AI)彻底改变。无论是聊天机器人、搜索引擎还是推荐系统,每一项技术背后都蕴含着庞大的语言模型的力量。然而,这些模型并不总是完美的,它们有时会生成一些令人啼笑皆非的“幻觉”——那些看似可信却完全虚假的信息。

    今天,我们将深入探讨一篇极具启发性的研究论文:《“Do I Know This Entity?Knowledge Awareness and Hallucinations in Language Models”》。这篇论文不仅揭示了语言模型的“幻觉”机制,还探讨了如何通过稀疏自动编码器(Sparse Autoencoders,简称SAE)来解锁模型的“自我知识”(self-knowledge)。准备好了吗?让我们一起踏上这段知识之旅!🚀


    🧠 第一幕:幻觉与“自我认知”

    🌌 什么是语言模型的幻觉?

    幻觉(Hallucination)在大型语言模型(LLMs)中指的是:模型生成了流畅但事实错误或无法验证的信息。比如,当你问一个模型“Wilson Brown是什么时候出生的?”时,如果模型说“他于1994年8月1日出生”,而实际上Wilson Brown根本不存在,这就是一个典型的幻觉现象。

    幻觉的存在令人头疼,尤其是在医疗、法律等需要高度准确性的领域。论文中提到,虽然已有研究深入探讨了语言模型如何回忆已知事实,但对于幻觉和拒绝回答的机制却鲜有了解。

    🌱 比喻时间!

    试想一下,语言模型就像一个图书馆管理员。它有两种选择:

    1. “我知道”: 它从图书馆的书架上找到了正确的书(已知事实)。
    2. “我不知道”: 它找不到书,但仍然编造了一个答案(幻觉)。

    为什么它不直接说“我不知道”呢?这是本文要解开的谜团之一。


    🧬 稀疏自动编码器与自我知识的秘密

    论文的核心之一是使用稀疏自动编码器(SAEs)作为工具,来揭示语言模型的内部表示。这些编码器能够找到表征空间中与“实体识别”相关的方向,从而检测模型是否能回忆某个实体的事实。

    🎨 图解:已知与未知实体的激活模式

    以下是论文中一个关键实验的示意:

    已知实体激活未知实体激活
    Michael JordanMichael Joordan
    “LeBron James是哪一年出生的?”“Wilson Brown是哪一年出生的?”
    模型回答: “他出生于旧金山。”模型回答: “他出生于Anthon市。”

    这个对比反映了模型对于已知与未知实体的不同处理方式。通过稀疏自动编码器,研究者发现了一些线性方向,这些方向能够反映模型是否“认识”某个实体。这种现象被称为“自我知识”。


    🔍 第二幕:稀疏自动编码器的魔法

    🧩 什么是稀疏自动编码器?

    简单来说,稀疏自动编码器是一种能够学习稀疏且可解释特征的工具。它基于线性表示假设(Linear Representation Hypothesis),即模型的输入特征(如情感、事实性)可以被表示为表示空间中的线性方向。这些方向可以用来解码和理解模型的行为。

    💡 公式时间!

    稀疏自动编码器的核心公式如下:

    1. 表示的重构公式:
      $$ SAE(x) = a(x)W_{dec} + b_{dec} $$
      其中,$a(x)$ 是稀疏激活函数,$W_{dec}$ 是解码权重矩阵。
    2. 激活函数公式:
      $$ a(x) = \text{JumpReLU}\theta(xW{enc} + b_{enc}) $$
      其中,$\text{JumpReLU}_\theta$ 是一种分段激活函数。
    3. 损失函数公式:
      $$ L(x) = |x – SAE(x)|_2^2 + \lambda |a(x)|_0 $$
      这个公式的目标是同时最小化重构误差和激活稀疏性。

    通过这些公式,SAEs能够找到语言模型中表示已知和未知实体的线性方向。


    🔍 实验揭秘:实体识别方向的发现

    研究者们使用了Gemma Scope工具包,对Gemma 2模型(2B和9B参数)的每一层进行了SAEs训练,最终找到了与实体识别相关的方向。这些方向不仅可以区分“已知”与“未知”实体,还能够用于“因果干预”,即通过操控这些方向来改变模型的行为。

    🎯 实验结果:模型的层次结构

    • 中间层是关键:论文发现,区分已知和未知实体的方向在模型的中间层(如第9层)表现得最为显著。
    • 广泛泛化能力:这些方向在不同类型的实体(电影、城市、歌曲、球员)之间表现出一致性。

    🧠 第三幕:因果干预与模型行为调控

    🚦 “我知道”与“我不知道”的开关

    研究者通过操控稀疏自动编码器的方向,实现了以下两种行为的切换:

    1. 拒绝回答已知实体的问题:通过增加“已知实体方向”的激活值,模型会更倾向于拒绝回答关于已知实体的问题。
    2. 对未知实体产生幻觉:通过增加“未知实体方向”的激活值,模型会倾向于编造未知实体的属性。

    📊 数据可视化:拒绝率的变化

    下图展示了模型在不同干预条件下的拒绝率:

    实体类型原始模型已知方向干预未知方向干预
    球员45%90%10%
    电影50%85%20%

    从数据中可以看出,通过操控实体识别方向,模型的行为发生了显著变化。


    ⚙️ 机制分析:注意力与属性提取

    研究进一步揭示,这些方向不仅影响模型的行为,还会调控模型的注意力机制。例如:

    • 注意力分配的变化:在处理已知实体时,模型的注意力更集中在实体相关的词汇上;而在处理未知实体时,注意力则被分散或削弱。
    • 属性提取机制的干扰:通过操控“未知实体方向”,研究者发现模型的属性提取机制被显著抑制。

    🌟 第四幕:不确定性方向与错误预测

    🤔 模型如何表达不确定性?

    除了实体识别方向,研究者还发现了一些与不确定性相关的方向。这些方向能够区分模型的正确回答与错误回答,甚至预测即将发生的幻觉。

    ✨ 真实案例

    当问到“Wilson Brown是哪一年出生的?”时:

    • 如果不确定方向的激活值较高,模型倾向于回答“我不确定”。
    • 如果不确定方向的激活值较低,模型更可能产生幻觉。

    🎭 大结局:从理解到应用

    🔑 论文的核心贡献

    1. 发现自我知识方向:通过稀疏自动编码器,研究者揭示了语言模型内部的“自我知识”机制。
    2. 因果干预的成功应用:通过操控这些方向,研究者实现了对模型行为的精确控制。
    3. 不确定性方向的探索:研究进一步揭示了模型表达不确定性的内部机制。

    🌍 应用展望

    这一研究为解决语言模型的幻觉问题提供了重要启发。未来,我们可以利用这些发现来:

    • 提高模型的事实性和可靠性;
    • 减少医疗、法律等领域的错误回答;
    • 构建更透明、更可解释的AI系统。

    📚 参考文献

    1. Javier Ferrando, Oscar Obeso et al. (2024). Do I Know This Entity? Knowledge Awareness and Hallucinations in Language Models.
    2. Radford et al. (2019). Language Models are Few-Shot Learners.
    3. Bricken et al. (2023). Sparse Autoencoders for Interpretability.
    4. Nanda et al. (2023). Attention Mechanisms in Language Models.
    5. Geva et al. (2023). Factual Recall in AI Systems.

    希望这篇文章不仅解答了您对语言模型幻觉的疑问,还为您带来了一点轻松与乐趣!让我们期待AI技术的更大突破!🎉

  • 🎭 Marco-o1:通向开放性推理模型的未来之路


    作者: Yu Zhao, Huifeng Yin, Bo Zeng, Hao Wang, Tianqi Shi, Chenyang Lyu, Longyue Wang, Weihua Luo 和 Kaifu Zhang
    单位: MarcoPolo 团队,阿里巴巴国际数字商务
    日期: 2024年11月22日


    🌟 引言

    如果说AI领域是一个精彩的舞台,那么近期OpenAI推出的o1模型无疑是其中的顶级明星。o1因其卓越的推理能力而备受赞誉,尤其在AIME和CodeForces等平台上表现出色,甚至一度成为学术圈热议的焦点。那么,问题来了:我们是否能够进一步推动大型语言模型(LLMs)的边界,使其不仅在标准答案明确的领域(如数学、物理、编程)中表现优异,还能在开放性、无明确标准的领域中展现卓越的推理能力?

    Marco-o1 的诞生正是基于这一问题的探索结果。这款模型不仅融合了先进的链式推理(Chain-of-Thought, CoT)微调蒙特卡洛树搜索(Monte Carlo Tree Search, MCTS) 和创新的反思机制,更在复杂的现实问题解决中表现出与众不同的推理能力。

    本文将带您深入了解Marco-o1模型的核心理念、技术架构及其实验成果,同时以轻松风趣的方式揭示其背后的科学原理。


    🧠 Marco-o1 的创新之处

    Marco-o1的设计灵感来源于OpenAI的o1模型,但其目标远远超越了前者。以下是Marco-o1的主要创新点:

    1. 利用链式推理(CoT)数据进行微调:通过结合开放数据集和自研合成数据,我们进行了全参数微调,显著提升了模型在复杂任务中的推理能力。
    2. 结合蒙特卡洛树搜索(MCTS)扩展解空间:通过模型输出的置信度分数引导搜索路径,有效探索更广泛的推理路径。
    3. 引入反思机制:”等等!我可能犯了些错误,我需要重新思考!” 这一机制鼓励模型反思其推理过程,从而自我修正错误。
    4. 拓展至翻译任务:首次将大型推理模型(LRM)应用于机器翻译任务,尤其是在处理俚语和口语化表达时表现卓越。

    📚 数据集与构建

    Marco-o1的推理能力得益于其强大的数据支持。以下是其核心数据集的构成:

    数据集样本数量来源与特点
    Open-O1 CoT 数据集(过滤后)45,125从开放项目中提取并通过启发式和质量过滤精炼而成
    Marco-o1 CoT 数据集(合成)10,000使用MCTS生成的复杂推理路径
    Marco 指令数据集5,141包含丰富的指令跟随任务,提升模型的通用能力
    总计60,266

    这些数据集通过监督微调(SFT)方法,为模型推理能力奠定了坚实基础。


    🌳 MCTS:从“解题棋手”到“推理大师”

    想象一下,如果我们将问题的求解过程看作是一场博弈游戏,那么每一步推理就像棋盘上的一步棋。而Marco-o1的MCTS机制正是这样一位“解题棋手”,它在每一步中评估多种可能性,选择最优解路径。其核心流程包括:

    1. 节点表示推理状态:每个节点代表问题求解过程中的一个状态。
    2. 行动为模型输出:每个节点的可能行动由模型的输出表示,这些行动对应于推理链中的步骤或微步骤。
    3. 回合和奖励计算:在模拟阶段,模型继续推理至终止状态,并为路径分配奖励分数。

    公式如下,用于计算每个token的置信度分数:

    $$ c_i = \frac{\exp(p(t_i))}{\sum_{k=1}^5 \exp(p(t_k))} $$

    其中,$p(t_i)$为第$i$个token的对数概率,$p(t_k)$为前5个备选token的对数概率。接着,对所有token的置信度分数取均值,得到整体奖励分数:

    $$ v = \frac{1}{n} \sum_{i=1}^n c_i $$

    模型通过这种方法有效扩展了解空间,探索更优的推理路径。


    🔬 实验与结果

    为了验证Marco-o1的表现,我们针对不同的配置进行了实验,结果如下:

    模型MGSM-En (准确率)MGSM-Zh (准确率)
    Qwen2-7B-Instruct84.23%76.80%
    Marco-o1-CoT85.60%71.20%
    Marco-o1-MCTS(步骤级)90.40%80.00%
    Marco-o1-MCTS(64-token 微步骤级)88.40%80.40%
    Marco-o1-MCTS(32-token 微步骤级)87.60%82.40%

    🎯 结果分析:

    1. 在英文数据集(MGSM-En)上,“步骤级”策略表现最佳。
    2. 在中文数据集(MGSM-Zh)上,“32-token 微步骤级”策略表现出色,体现了不同粒度的推理策略在多语言场景中的潜力。

    🌍 翻译任务案例研究

    Marco-o1不仅在推理任务中表现优异,还在翻译任务中展示了强大的语言理解能力。例如:

    • 输入(中文俚语):这双鞋给人一种踩屎的感觉。
    • Google Translate 输出:This shoe gives a feeling of stepping on poop.
    • Marco-o1 输出:This shoe has a comfortable sole.

    从中可以看出,Marco-o1不仅能准确翻译字面意思,更能捕捉语言的语境和文化内涵,为翻译任务带来了新可能性。


    🤔 反思机制:模型的“自我批评家”

    “等等!我可能犯了些错误,我需要重新思考!” 这句看似简单的提示语,却成为了Marco-o1推理能力提升的关键。通过这一机制,模型能够:

    1. 主动反思推理过程中的潜在错误。
    2. 在具有挑战性的问题上显著提高正确率(例如,原本错误的答案中约50%在反思后变为正确)。

    这一过程类似于人类的自我批评行为,通过反复审视自己的逻辑来提升决策质量。


    🧭 未来发展方向

    Marco-o1的成功只是AI推理旅程的起点。未来,我们计划:

    1. 优化奖励信号:通过引入结果奖励建模(Outcome Reward Modeling, ORM)和过程奖励建模(Process Reward Modeling, PRM),进一步提升MCTS的稳定性和性能。
    2. 探索强化学习技术:在决策过程中融入强化学习,增强模型在实际问题中的适应能力。

    我们相信,随着这些技术的逐步完善,Marco-o1将能够在更多复杂的现实场景中大放异彩。


    📜 参考文献

    1. OpenAI, 2024. “OpenAI o1: Advancing Reasoning in AI.”
    2. Wei, J. , et al., 2022. “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models.”
    3. Silver, D. , et al., 2017. “Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm.”
    4. Valmeekam, K. , et al., 2023. “Self-Critical Reasoning in AI Systems.”
    5. Madaan, A. , et al., 2024. “Reflection Mechanisms in LLMs: A New Frontier.”

    🎉 后记:Marco-o1不仅让我们看到了AI推理能力的巨大潜力,也让我们对未来充满期待——一个由更智能、更敏捷的模型引领的智能时代或许已不再遥远!

人生梦想 - 关注前沿的计算机技术 acejoy.com