近年来,大型语言模型(Large Language Models, LLMs)在自然语言处理领域取得了突破性进展,展现出强大的语言理解和生成能力。然而,LLM也存在一个严重的问题 - 幻觉(Hallucination)。幻觉指的是模型生成的内容看似合理,但实际上与用户输入、上下文或事实知识相矛盾的现象。这一问题严重影响了LLM在实际应用中的可靠性和可信度,因此引起了学术界和工业界的广泛关注。本文将全面综述LLM幻觉问题的研究现状,包括幻觉的定义与分类、评估方法、产生原因分析以及缓解策略等方面。
幻觉通常被定义为模型生成的内容虽然看似合理,但实际上与输入、上下文或事实知识相矛盾的现象。根据矛盾的对象,幻觉可以分为以下三类:
输入矛盾型幻觉:生成内容与用户输入(包括任务指令和输入内容)相矛盾。
上下文矛盾型幻觉:生成内容与之前生成的上下文相矛盾,即自相矛盾。
事实矛盾型幻觉:生成内容与客观事实或已知知识相矛盾。
这三类幻觉中,事实矛盾型幻觉最为普遍,也是目前研究的重点。
图1: 大型语言模型幻觉示例
为了系统地研究LLM的幻觉问题,研究人员提出了多种评估方法和基准数据集。主要评估方法包括:
人工评估:由人类专家判断模型输出是否存在幻觉。这种方法准确度高,但成本较大,难以大规模应用。
基于参考答案的自动评估:将模型输出与预先准备的参考答案进行比较,判断是否存在偏差。这种方法效率高,但难以覆盖所有可能的正确答案。