OpenAI 评估
评估为大型语言模型(LLM)或基于LLM构建的系统提供评估框架。我们提供现有的评估注册表,用于测试OpenAI模型的不同维度,并且可以编写自定义评估以满足您关心的用例。您还可以使用自己的数据构建私有评估,这些评估代表您工作流程中常见的LLM模式,而无需公开暴露任何数据。
如果您正在使用LLM进行构建,创建高质量的评估是您可以做的最有影响力的事情之一。没有评估,很难理解不同模型版本如何影响您的用例,而且可能非常耗时。用OpenAI总裁Greg Brockman的话说:
设置
要运行评估,您需要设置并指定您的OpenAI API密钥。获得API密钥后,请使用OPENAI_API_KEY环境变量指定它。运行评估时,请注意使用API所产生的成本。您还可以使用Weights & Biases运行和创建评估。
最低要求版本:Python 3.9
下载评估
我们的评估注册表使用Git-LFS存储。下载并安装LFS后,您可以在本地evals仓库副本中使用以下命令获取评估:
cd evals
git lfs fetch --all
git lfs pull
这将填充evals/registry/data下的所有指针文件。
如果您只想获取特定评估的数据,可以通过以下方式实现:
git lfs fetch --include=evals/registry/data/${your eval}
git lfs pull
创建评估
如果您要创建评估,我们建议直接从GitHub克隆此仓库,并使用以下命令安装要求:
pip install -e .
使用-e,您对评估所做的更改将立即生效,无需重新安装。
可选地,您可以安装用于预提交的格式化程序:
pip install -e .[formatters]
然后运行pre-commit install将pre-commit安装到您的git钩子中。pre-commit现在将在每次提交时运行。
如果您想手动对仓库运行所有pre-commit钩子,请运行pre-commit run --all-files。要运行单个钩子,请使用pre-commit run <hook_id>。
运行评估
如果您不想贡献新的评估,而只想在本地运行它们,可以通过pip安装evals包:
pip install evals
您可以在run-evals.md中找到运行现有评估的完整说明,在eval-templates.md中找到我们现有的评估模板。对于更高级的用例,如提示链或使用工具的代理,您可以使用我们的完成函数协议。
我们提供选项让您将评估结果记录到Snowflake数据库中,如果您有或想设置一个的话。对于此选项,您还需要指定SNOWFLAKE_ACCOUNT、SNOWFLAKE_DATABASE、SNOWFLAKE_USERNAME和SNOWFLAKE_PASSWORD环境变量。
编写评估
我们建议从以下方面入手:
- 完成构建评估的流程:build-eval.md
- 探索实现自定义评估逻辑的示例:custom-eval.md
- 编写您自己的完成函数:completion-fns.md
- 查看我们的评估编写入门指南:OpenAI Evals入门
请注意,我们目前不接受带有自定义代码的评估!虽然我们暂时要求您不要提交此类评估,但您仍可以使用自定义模型评分YAML文件提交模型评分评估。
如果您认为您有一个有趣的评估,请开启一个拉取请求提交您的贡献。OpenAI员工在考虑改进即将推出的模型时会积极审查这些评估。
常见问题
您有从头到尾构建评估的示例吗?
- 有的!这些在examples文件夹中。我们建议您也阅读build-eval.md,以深入了解这些示例中发生的情况。
您有以多种不同方式实现的评估示例吗?
- 有的!特别是,请参阅evals/registry/evals/coqa.yaml。我们为各种评估模板实现了CoQA数据集的小子集,以帮助说明差异。
当我运行评估时,有时在最后(最终报告之后)会卡住。这是怎么回事?
- 这是一个已知问题,但您应该能够安全地中断它,评估应该在之后立即完成。
代码太多,我只想快速启动一个评估。有什么建议吗?或者,
我是一名世界级的提示工程师。我选择不编码。我如何贡献我的智慧?
- 如果您遵循现有的评估模板来构建基本或模型评分评估,您根本不需要编写任何评估代码!只需以JSON格式提供数据并在YAML中指定评估参数即可。build-eval.md会引导您完成这些步骤,您可以参考examples文件夹中的Jupyter笔记本来快速入门。请记住,一个好的评估inevitably需要仔细思考和严格实验!
免责声明
通过贡献评估,您同意使您的评估逻辑和数据采用与本仓库相同的MIT许可。您必须拥有足够的权利来上传评估中使用的任何数据。OpenAI保留在未来的服务改进中使用这些数据的权利。对OpenAI评估的贡献将受我们通常的使用政策约束:https://platform.openai.com/docs/usage-policies。