#事实性
DoLa - 对比层解码提升大语言模型事实性
DoLa大语言模型解码策略事实性层对比Github开源项目
DoLa是一种新型解码策略,通过对比大语言模型不同层输出来提高内容事实性。无需外部知识或额外微调,即可减少模型幻觉,提升TruthfulQA等任务表现。该方法利用模型事实知识的层级分布特性,为增强AI系统可靠性开辟新途径。
RefChecker - 针对大语言模型输出的精细化幻觉检测框架
RefChecker大语言模型幻觉检测评估框架事实性Github开源项目
RefChecker是一个标准化评估框架,用于检测大语言模型(LLM)输出中的细微幻觉。该框架将LLM响应分解为知识三元组,在三种不同背景下进行精细化幻觉检测。项目包括人工标注的基准数据集、模块化架构和自动化检查器,有助于评估和改进LLM输出的事实准确性。RefChecker为研究人员和开发者提供了评估和提高LLM生成内容可靠性的工具。