Project Icon

long-form-factuality

大型语言模型长篇文本事实性评估工具集

Long-form-factuality项目提供了一套完整的工具和方法来评估大型语言模型生成长篇文本的事实准确性。项目包括LongFact提示集、SAFE评估器和F1@K指标。研究人员可以利用这些工具对OpenAI和Anthropic等模型进行基准测试,深入探究语言模型在长篇事实性文本生成方面的表现。项目代码开源,便于复现实验结果和进行further研究。

大语言模型中的长文本事实性

这是我们论文"大语言模型中的长文本事实性"的官方代码发布。 此代码库包含:

  1. LongFact:一套包含2,280个需要长篇回答的事实性问题提示。
  2. 搜索增强事实性评估器(SAFE):在长文本事实性环境中自动评估模型回答。
  3. F1@K:使用人类偏好长度的召回率来扩展F1分数至长文本环境。
  4. 使用LongFact + SAFE对OpenAI和Anthropic模型进行基准测试的实验流程

安装

首先,克隆我们的GitHub仓库。

git clone https://github.com/google-deepmind/long-form-factuality.git

然后进入新创建的文件夹。

cd long-form-factuality

接下来,使用conda创建一个新的Python 3.10+环境。

conda create --name longfact python=3.10

激活新创建的环境。

conda activate longfact

所有外部包的要求都列在requirements.txt中。 要安装所有包,请运行以下命令。

pip install -r requirements.txt

使用方法

LongFact

LongFact的完整提示集可在longfact/文件夹中找到。 有关数据集的更多详细信息,请参阅longfact/中的README。

要运行我们用于生成LongFact的数据生成流程,请使用以下命令。 有关数据生成流程的其他详细信息,请参阅data_creation/中的README。

python -m data_creation.pipeline

SAFE

我们对SAFE的完整实现位于eval/safe/中。 有关SAFE如何工作的更多信息,请参阅eval/safe/中的README。

要运行评估SAFE与FActScore人工标注对比的流程,请使用以下命令。 有关此实验的其他详细信息,请参阅eval/中的README。

python -m eval.correlation_vs_factscore

模型基准测试

要对OpenAI和Anthropic模型进行基准测试,首先将您的API密钥添加到common/shared_config.py中(有关更多信息,请参阅common/中的README;请确保不要公开这些密钥)。 要获取给定提示集的模型回答,请使用以下命令。 有关我们主要实验流程的其他详细信息,请参阅main/中的README。

python -m main.pipeline

接下来,要使用SAFE评估我们主要实验流程中的提示-回答对,请使用以下命令,确保将包含要评估的提示-回答对的.json文件路径添加到--result_path参数中。

python -m eval.run_eval \
    --result_path=

单元测试

此目录中的每个文件都有一个带有_test后缀的对应单元测试(例如,file.py会有file_test.py作为单元测试)。 单个测试的运行命令显示在单元测试文件中。 要运行所有单元测试,请使用以下命令。

python -m unittest discover -s ./ -p "*_test.py"

引用本工作

如果您发现我们的代码有用,请引用我们的论文

@misc{wei2024long,
  title={Long-form factuality in large language models},
  author={Wei, Jerry and Yang, Chengrun and Song, Xinying and Lu, Yifeng and Hu, Nathan and Huang, Jie and Tran, Dustin and Peng, Daiyi and Liu, Ruibo and Huang, Da and Du, Cosmo and Le, Quoc V.},
  year={2024},
  url={https://arxiv.org/abs/2403.18802},
}

许可和免责声明

版权所有 2024 DeepMind Technologies Limited

所有软件均根据Apache License, Version 2.0(Apache 2.0)许可; 除非符合Apache 2.0许可,否则您不得使用此文件。 您可以在以下位置获取Apache 2.0许可的副本: https://www.apache.org/licenses/LICENSE-2.0

所有其他材料均根据Creative Commons Attribution 4.0 International License(CC-BY)许可。您可以在以下位置获取CC-BY许可的副本: https://creativecommons.org/licenses/by/4.0/legalcode

除非适用法律要求或书面同意,否则根据Apache 2.0或CC-BY许可分发的所有软件和 材料均按"原样"分发,不提供任何明示或暗示的担保或条件。 有关这些许可下的特定语言管理权限和限制,请参阅许可证。

这不是官方的Google产品。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号