大语言模型的新突破:精细化归因引领更可信的问答体验 2024-08-10 作者 C3P00 在人工智能快速发展的今天,大语言模型(LLMs)已经成为人们获取信息的重要工具。然而,这些模型存在的”幻觉”问题一直是研究者们关注的焦点。最新发表在arXiv上的一项研究为解决这一难题提供了新的思路 – 通过精细化的归因来提高模型回答的可信度和可验证性。 大语言模型的”幻觉”困境 尽管大语言模型在信息检索任务上表现出色,但它们仍然难以避免”幻觉”问题的困扰。所谓”幻觉”,是指模型生成不存在的事实或不忠实于原文的内容。这一问题不仅影响了模型回答的准确性,更有可能导致错误信息的传播,直接影响大语言模型的可靠性和可信度。 为了缓解这一问题,研究人员提出了带有归因功能的大语言模型。这类模型能够在生成文本的同时提供内联引用,以增强模型输出的事实性和可验证性。然而,现有的归因方法仍存在明显的局限性: 大多依赖于少样本学习或事后检索来实现归因,缺乏模型内在的归因能力,导致引用质量不佳。 引用通常以文档标识符或URL的形式呈现,这种粗粒度的归因方式使用户难以进行细粒度验证,尤其是在长文档中定位具体的支持证据。 FRONT:精细化归因的新框架 为了解决上述问题,来自哈尔滨工业大学和华为公司的研究团队提出了一种名为FRONT的新型训练框架。该框架旨在教导大语言模型生成精细化的有根据的引用(Fine-gRained grOuNded ciTations)。 FRONT框架的核心思想是:首先从检索到的源文档中选择支持性引用,然后基于这些引用来指导生成过程,从而确保生成的回答有据可依,引用准确无误。这种方法不仅提高了引用质量,还为用户提供了更便捷的细粒度验证途径。 自动化数据生成管道 FRONT框架的一大创新在于其自动化的高质量归因数据生成管道。这一管道包括三个主要步骤: 数据收集: 从AQuAMuSe数据集采集真实用户查询,并使用Sphere语料库作为网络搜索索引的代理。对每个查询,系统首先检索前100个相关文档,然后使用RankVicuna模型重新排序,选出最相关的前5个文档。 归因答案生成: 利用ChatGPT基于给定的查询和检索到的文档生成带有引用的答案。通过精心设计的指令和示例,确保ChatGPT生成信息丰富且正确引用来源的回答。 数据过滤: 为保证合成训练数据的高质量,研究团队采用了严格的过滤标准,主要考虑两个方面:信息量(答案是否提供了足够的信息)和可归因性(答案是否归因于引用的文档)。对于可归因性的评估,研究者还训练了一个专门的判别器。 两阶段训练方法 FRONT框架采用了创新的两阶段训练方法,旨在赋予大语言模型精细化归因能力: 基于依据的引导生成(G3): 教导模型首先从源文档中提取支持性引用,每个引用都与其文档标识符相关联。 这些提取的引用随后用于指导归因答案的生成。 优点:a. 直接从源文档提取引用,减少了不相关信息的引入和”幻觉”风险。b. 每个文档标识符作为明确的监督信号,有助于提高引用质量。 一致性感知对齐(CAA): 旨在增强基于依据的过程与生成过程之间的一致性。 采用对比学习方法,将一致的答案与不一致的答案在相同的基准依据引用指导下进行对比。 自动构建偏好对:使用较小的语言模型(如LLaMA-2-7B. 在少样本学习设置下生成的低质量、不一致答案作为负样本。✅ 采用直接偏好优化(DPO)技术进行对比对齐。 实验结果与分析 研究团队在ALCE基准测试上进行了广泛的实验,以评估FRONT框架的效果。ALCE基准包括三个长文本问答数据集,涵盖了各种类型的问题。实验结果令人振奮: 引用质量显著提升: 使用LLaMA-2-7B模型,FRONT框架在引用质量方面相比所有基线方法平均提高了14.21%,甚至超过了ChatGPT的表现。 人工评估: 人工评估结果显示,FRONT生成的引用质量很高,对用户验证有显著帮助。 更少的”幻觉”: 分析表明,FRONT生成的内容中”幻觉”现象明显减少。 出色的泛化能力: FRONT框架在不同基础模型上都表现出色,展现了良好的泛化能力。 研究意义与展望 FRONT框架的提出为解决大语言模型的”幻觉”问题提供了一种新的思路。通过精细化的归因方法,不仅提高了模型回答的可信度,还为用户提供了更便捷的验证途径。这项研究对于提升人工智能系统的可靠性和透明度具有重要意义。 未来,研究者们可能会进一步探索: 如何将FRONT框架扩展到更多类型的任务中,如摘要生成、对话系统等。 进一步优化自动化数据生成管道,以生产更高质量、更多样化的训练数据。 探索更先进的对比学习技术,以进一步提升模型的一致性和准确性。 研究如何将FRONT框架与其他技术(如知识图谱)结合,以提供更全面、更可靠的信息检索体验。 随着这些研究的深入,我们有理由相信,未来的大语言模型将能够提供更加可靠、透明和可验证的信息服务,为用户带来更好的体验。 参考文献:[1] Huang, L. , Feng, X., Ma, W., Gu, Y., Zhong, W., Feng, X., … & Qin, B. (2023). Learning Fine-Grained Grounded Citations for Attributed Large Language Models. arXiv preprint arXiv:2408.04568.✅
在人工智能快速发展的今天,大语言模型(LLMs)已经成为人们获取信息的重要工具。然而,这些模型存在的”幻觉”问题一直是研究者们关注的焦点。最新发表在arXiv上的一项研究为解决这一难题提供了新的思路 – 通过精细化的归因来提高模型回答的可信度和可验证性。
大语言模型的”幻觉”困境
尽管大语言模型在信息检索任务上表现出色,但它们仍然难以避免”幻觉”问题的困扰。所谓”幻觉”,是指模型生成不存在的事实或不忠实于原文的内容。这一问题不仅影响了模型回答的准确性,更有可能导致错误信息的传播,直接影响大语言模型的可靠性和可信度。
为了缓解这一问题,研究人员提出了带有归因功能的大语言模型。这类模型能够在生成文本的同时提供内联引用,以增强模型输出的事实性和可验证性。然而,现有的归因方法仍存在明显的局限性:
FRONT:精细化归因的新框架
为了解决上述问题,来自哈尔滨工业大学和华为公司的研究团队提出了一种名为FRONT的新型训练框架。该框架旨在教导大语言模型生成精细化的有根据的引用(Fine-gRained grOuNded ciTations)。
FRONT框架的核心思想是:首先从检索到的源文档中选择支持性引用,然后基于这些引用来指导生成过程,从而确保生成的回答有据可依,引用准确无误。这种方法不仅提高了引用质量,还为用户提供了更便捷的细粒度验证途径。
自动化数据生成管道
FRONT框架的一大创新在于其自动化的高质量归因数据生成管道。这一管道包括三个主要步骤:
两阶段训练方法
FRONT框架采用了创新的两阶段训练方法,旨在赋予大语言模型精细化归因能力:
a. 直接从源文档提取引用,减少了不相关信息的引入和”幻觉”风险。
b. 每个文档标识符作为明确的监督信号,有助于提高引用质量。
实验结果与分析
研究团队在ALCE基准测试上进行了广泛的实验,以评估FRONT框架的效果。ALCE基准包括三个长文本问答数据集,涵盖了各种类型的问题。实验结果令人振奮:
研究意义与展望
FRONT框架的提出为解决大语言模型的”幻觉”问题提供了一种新的思路。通过精细化的归因方法,不仅提高了模型回答的可信度,还为用户提供了更便捷的验证途径。这项研究对于提升人工智能系统的可靠性和透明度具有重要意义。
未来,研究者们可能会进一步探索:
随着这些研究的深入,我们有理由相信,未来的大语言模型将能够提供更加可靠、透明和可验证的信息服务,为用户带来更好的体验。
参考文献:
[1] Huang, L. , Feng, X., Ma, W., Gu, Y., Zhong, W., Feng, X., … & Qin, B. (2023). Learning Fine-Grained Grounded Citations for Attributed Large Language Models. arXiv preprint arXiv:2408.04568.✅