分类: AGI

AGI 通用人工智能

  • 🧠 少样本提示的奇妙世界:从“零”到“少”的转变

    在这个信息量爆炸的时代,人工智能如同一位神奇的魔法师,能够通过零样本学习展示出惊人的能力。然而,当我们将目光投向更复杂的任务时,这位魔法师的魔法似乎显得有些力不从心。这时,少样本提示便应运而生,犹如一根救命稻草,帮助我们引导这位魔法师走向更高的巅峰。

    🌍 从“零”到“少”的旅程

    少样本提示技术的核心在于上下文学习。简单来说,少样本提示就像是在为模型准备一顿丰盛的晚餐,而零样本学习则像是给它一块生肉。正如 Touvron 等人(2023)所指出的,随着模型规模的增大,小样本提示的特性逐渐显现。研究表明,当模型达到一定规模时,它们在少样本学习的表现会大幅提升。

    但这究竟是怎样的一种体验呢?让我们通过 Brown 等人(2020)的一个示例来深刻理解这一过程。设想一下,我们需要使用一个新词“whatpu”来造句,提示如下:

    “whatpu”是坦桑尼亚的一种小型毛茸茸的动物。一个使用whatpu这个词的句子的例子是:我们在非洲旅行时看到了这些非常可爱的whatpus。

    接着,我们再引入另一个新词“farduddle”:

    “farduddle”是指快速跳上跳下。一个使用farduddle这个词的句子的例子是:当我们赢得比赛时,我们都开始庆祝跳跃。

    通过这种方式,模型不仅能理解这些新词的含义,还能尝试在句子中进行合理的使用。这种1-shot的示例给了模型一个方向,而如果我们增加更多的示例,例如3-shot、5-shot,甚至10-shot,模型的表现将更加出色。

    📊 图表示例的力量

    在进行少样本学习时,演示和示例的重要性不言而喻。根据 Min 等人(2022)的研究结果,标签空间和演示指定的输入文本的分布同样具有关键作用。我们不妨用一张图表来更清晰地展示这一点:

    如图所示,增加示例数量和优化标签空间的分布,都能有效提升模型的性能。

    🎭 随机标签的神奇效果

    有趣的是,研究还发现,即使标签是随机分配的,模型依旧能够做出正确的判断。比如,我们可以这样设置提示:

    这太棒了!// Negative
    这太糟糕了!// Positive
    哇,那部电影太棒了!// Positive
    多么可怕的节目!//

    输出结果竟然是:

    Negative

    即便标签是随机的,模型依然能够推断出正确的答案。这就好比一个盲人摸象,虽然没有看到全貌,但凭借触感和经验,依然能够判断出根本。

    让我们再来一个例子:

    Positive This is awesome!
    This is bad! Negative
    Wow that movie was rad!
    Positive
    What a horrible show! —

    输出结果仍然是:

    Negative

    即使格式不一致,模型依旧展现出了惊人的适应能力。这一现象令人惊叹,让人不禁想要深入探讨其背后的原理。

    ⚠️ 少样本提示的局限性

    然而,少样本提示并非万无一失,尤其是在处理更复杂的推理任务时。让我们来看看这个例子:

    这组数字中的奇数加起来是一个偶数:15、32、5、13、82、7、1。

    模型的回答是:

    是的,这组数字中的奇数加起来是107,是一个偶数。

    等等,107是个什么鬼?显然,这是一个错误的推理。可见,少样本提示在面对复杂推理问题时,显得力不从心。

    为了改进,我们尝试添加更多的示例来帮助模型:

    这组数字中的奇数加起来是一个偶数:4、8、9、15、12、2、1。
    A. ��答案是False。
    这组数字中的奇数加起来是一个偶数:17、10、19、4、8、12、24。
    A. ��答案是True。
    这组数字中的奇数加起来是一个偶数:16、11、14、4、8、13、24。
    A. ��答案是True。
    这组数字中的奇数加起来是一个偶数:17、9、10、12、13、4、2。
    A. ��答案是False。
    这组数字中的奇数加起来是一个偶数:15、32、5、13、82、7、1。
    A. ��

    输出结果是:

    答案是True。

    然而,结果依旧令人失望。少样本提示并未能有效解决这个推理问题。

    🔗 思维链提示:更高级的解决方案

    为了应对更复杂的推理任务,思维链(Chain of Thought,CoT)提示应运而生。通过将问题分解为更简单的步骤并逐一演示,思维链提示能够帮助模型更好地理解任务的核心。

    总而言之,少样本提示为我们提供了一种有效的引导方式,尤其在模型面临复杂任务时,提供示例显得尤为重要。当我们发现零样本提示或少样本提示无法胜任时,或许是时候考虑更高级的提示技术或进行模型微调了。

    📝 参考文献

    1. Touvron, H. , et al. (2023). “Title of the paper.”
    2. Kaplan, J. , et al. (2020). “Title of the paper.”
    3. Brown, T. , et al. (2020). “Title of the paper.”
    4. Min, S. , et al. (2022). “Title of the paper.”

    在这个充满挑战的领域,少样本提示不仅是技术的进步,更是我们探索人工智能边界的一次大胆尝试。让我们拭目以待,期待未来更多的惊喜!

  • 🌟 从对比解释看智能家居的时间规划

    引言 📖

    在当今快速发展的科技时代,智能家居已不再是科幻小说中的概念,而是我们生活中的现实。随着可再生能源的普及和智能设备的不断增多,如何高效地管理家庭能源消耗,成为了人们关注的焦点。本文将探讨一种新颖的智能家居应用——Cuttlefish,它通过对比解释来提升用户对多效应时间规划的理解和满意度。

    🌐 研究背景与目的

    在本研究中,我们使用对比解释方法探讨智能家居设备的调度。用户不仅需要执行某些家电任务,还要根据动态电价支付能源费用,同时还可以将多余的能量出售到电网。这使得该问题成为一个多效应规划问题,因为设备的并发调度和动态电价导致的非静态成本使得传统的规划方法无法有效解决。

    Cuttlefish 作为一个智能家居调度方案,其目标是为用户提供一个周计划,以满足他们的需求并尽可能降低能源成本。为了实现这一目标,我们设计了一种自定义的领域依赖规划器,并通过对比解释来帮助用户理解推荐的调度方案。

    📊 方法论

    1. 规划问题的定义

    我们将家庭环境视为一个包含单个电池和多个家电的系统。电池的放电为活动家电提供能源,而多余的能量则被出口到电网。我们的规划模型被定义为一个非静态有限视域规划问题(NF规划问题),其中包括状态集合、动作集合、时间步长、适用动作函数、转移函数和成本函数等。

    2. 对比解释的实施

    对比解释的核心在于通过提问来引导用户理解决策过程。例如,用户可以问:“为什么在状态 S 下选择了动作 A. ��而不是动作 B?”这类对比问题形成了一组限制条件,从而引导用户理解选择的合理性。Cuttlefish 利用这种对比解释,帮助用户更好地理解推荐的调度,并可能促使他们调整自己的需求。

    3. 用户研究设计

    我们在 Prolific 平台上进行了用户研究,共有128名参与者被随机分配到对照组和实验组。实验组的用户可以访问对比问题和解释,而对照组则只能查看推荐的调度方案。我们的目标是评估对比解释如何影响用户的满意度和理解程度。

    📈 结果分析与讨论

    1. 用户满意度的提升

    通过对用户反馈的定量分析,我们发现,访问对比问题和解释的用户对推荐调度的满意度明显高于未能访问这些功能的用户。具体而言,在 Alice 和 Bob 两个角色的场景下,实验组对调度的理解、满意度和有用性评分均显著高于对照组。

    统计数据示例:

    角色组别理解评分 (均值±标准差)满意度评分 (均值±标准差)有用性评分 (均值±标准差)
    AliceTG5.578 ± 1.3075.718 ± 1.1195.937 ± 1.139
    BobCG5.077 ± 1.3955.015 ± 1.4525.200 ± 1.394

    2. 定性反馈分析

    在问卷的自由文本部分,参与者被询问他们对调度的理解以及遇到的困难。结果显示,实验组的参与者对于调度的依赖关系(例如洗衣机和烘干机的顺序)表现出更深入的理解,而对调度任务的适宜性提出的质疑则较少。

    🤔 反思与未来展望

    尽管实验组的用户对推荐调度的满意度提高,但在调度的依赖关系方面仍存在一些困惑。这一发现提示我们,未来在设计智能调度系统时,需要更加清晰地向用户传达任务之间的依赖关系,以便更好地适应真实世界的应用场景。

    🏁 结论

    本文探讨了在智能家居时间规划中采用对比解释的有效性。我们的结果表明,对比问题和解释不仅提升了用户的理解和满意度,还为智能家居设备的调度提供了更为透明的决策支持。未来,我们将继续优化规划器的效率,并探索更多形式的“为什么”问题,以进一步增强用户体验。


    参考文献

    1. T. Miller, “Explanation in artificial intelligence: Insights from the social sciences,” Artif. Intell., vol. 267, pp. 1–38, 2019.
    2. P. Lipton, “Contrastive explanation,” Roy. Inst. of Philosophy Suppl., vol. 27, pp. 247–266, 1990.
    3. T. Chakraborti, S. Sreedharan, and S. Kambhampati, “The emerging landscape of explainable automated planning & decision making,” in Proc. 29th Int. Joint Conf. Artif. Intell., 2020, pp. 4803–4811.
    4. B. Krarup et al., “Contrastive explanations of plans through model restrictions,” J. Artif. Intell. Res., vol. 72, pp. 533–612, 2021.

人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 知差(chai)网