引言
大型语言模型(LLMs)在许多任务中表现出色,但由于仅依赖其内部参数化知识,它们经常产生包含事实错误的回答。为了解决这个问题,研究人员提出了各种方法,其中检索增强生成(RAG)是一种广泛采用的方法。然而,RAG方法也存在一些局限性。本文将介绍一种名为Self-RAG的新型框架,它通过自我反思来学习检索、生成和批评,从而提高语言模型的输出质量和事实准确性。
Self-RAG框架
Self-RAG是由华盛顿大学、IBM AI研究院和艾伦人工智能研究所的研究人员共同开发的一个创新框架。它的核心思想是训练一个任意的语言模型,使其能够:
- 按需自适应地检索段落
- 生成内容
- 对检索到的段落和自身生成的内容进行批评
这个过程通过使用特殊的"反思标记"来实现,这些标记作为生成过程的一个组成部分被预测出来。
自适应检索
与传统的RAG方法不同,Self-RAG可以根据需要进行多次检索,也可以完全跳过检索。这种灵活性使得模型能够更好地适应不同类型的查询和任务。
反思标记
Self-RAG引入了一系列特殊的反思标记,用于评估生成质量的不同方面。这些标记包括:
- 检索相关性标记
- 生成支持度标记
- 整体效用标记
通过生成这些反思标记,Self-RAG在推理阶段变得可控,能够根据不同的任务要求调整其行为。
Self-RAG的训练过程
Self-RAG的训练涉及三个模型:检索器、评论家和生成器。
-
首先,训练评论家模型,并使用检索器来增强多样化的指令-输出数据,添加检索到的段落和反思标记。
-
然后,使用标准的下一个标记预测目标来训练生成器语言模型,使其学会生成自然的延续以及用于检索或批评其自身生成的特殊标记。
Self-RAG的推理过程
在推理阶段,Self-RAG能够根据不同的下游任务或偏好定制模型行为,而无需重新训练语言模型。具体来说:
-
自适应检索:Self-RAG学会生成检索标记,以自适应地进行检索。用户还可以根据软约束调整检索频率。
-
基于批评标记的树解码:Self-RAG引入了多个细粒度的批评标记,用于评估生成质量的不同方面。在每个时间步,通过线性插值所需批评标记的概率来进行段级波束搜索,以识别K个最佳延续。
实验结果
实验表明,Self-RAG (7B和13B参数)在多项任务上显著优于最先进的LLMs和检索增强模型:
- 在开放域问答、推理和事实验证任务中,Self-RAG胜过ChatGPT和检索增强的Llama2-chat。
- 在长篇生成任务中,Self-RAG在提高事实准确性和引用准确性方面相对于这些模型显示出显著的收益。
分析与讨论
消融实验
研究人员进行了消融实验,结果表明Self-RAG的所有训练和推理组件都在提高性能方面发挥了重要作用。
基于批评标记的推理时定制
Self-RAG允许实践者根据不同的细粒度偏好定制模型的行为。例如,在长篇生成任务中:
- 更加强调模型生成是否被证据支持可以提高引用精确度
- 减少这种强调可以提高输出流畅度,因为模型可能会更灵活和流畅地生成输出,而不考虑是否有引用证据支持
基于检索标记的自适应检索
Self-RAG会在判断需要检索时自行生成检索标记,同时用户也可以根据不同的最终任务增加或减少检索频率。实验发现:
- 在开放域问答任务(如PopQA)中,减少检索会导致性能显著下降(相对下降40%)
- 而在事实验证任务(如PubHealth)中,减少检索只会导致轻微的性能下降(2%)
结论
Self-RAG作为一种新的框架,通过自我反思来增强语言模型的检索、生成和批评能力,显著提高了模型输出的质量和事实准确性。它在多个任务上的出色表现证明了其在提升大型语言模型能力方面的潜力。未来的研究可能会进一步探索如何将Self-RAG应用于更广泛的任务和领域,以及如何进一步优化其训练和推理过程。
Self-RAG的开源实现为研究人员和开发者提供了一个宝贵的工具,有助于推动检索增强语言模型的发展。随着技术的不断进步,我们可以期待看到更多基于Self-RAG的创新应用和改进。
参考资料
如果您发现Self-RAG的代码、数据、模型或论文对您有用,请引用以下论文:
@inproceedings{
asai2024selfrag,
author={Asai, Akari and Wu, Zeqiu and Wang, Yizhong and Sil, Avirup and Hajishirzi, Hannaneh},
title={Self-{RAG}: Learning to Retrieve, Generate, and Critique through Self-Reflection},
booktitle={The Twelfth International Conference on Learning Representations},
year={2024},
url={https://openreview.net/forum?id=hSyW5go0v8}
}
要了解更多信息或获取支持,请访问Self-RAG的GitHub仓库或联系项目维护者。