Project Icon

jury

综合性NLP实验评估工具包

Jury是一个全面的NLP实验评估工具包,提供多种自动化指标。它支持多种评估指标的同时计算,可处理多预测/多参考的评估场景。Jury优化了evaluate库的设计,简化了自定义指标的添加。该工具包统一了指标计算的输入结构,支持并发计算,适用于各类NLP项目。

Jury

Python版本 下载量 PyPI版本 最新发布 在Colab中打开
构建状态 依赖项 代码风格:black 许可证:MIT
DOI

一个用于评估自然语言处理实验的综合工具包,提供各种自动化指标。Jury提供了一个流畅且易于使用的界面。它使用了evaluate设计的更高级版本作为底层指标计算,因此添加自定义指标就像扩展适当的类一样简单。

Jury提供的主要优势有:

  • 易于用于任何NLP项目。
  • 所有指标的计算输入采用统一结构。
  • 一次性计算多个指标。
  • 指标计算可以并发处理以节省处理时间。
  • 无缝支持多预测/多参考的评估。

想了解更多,请查看Jury官方博客文章

🔥 新闻

  • (2024.05.29) Retraction Watch文章关于论文撤回的帖子已发布。被抄袭的论文已被撤回。
  • (2023.10.03) Jury论文现已在arxiv上发布。如果您的工作使用了Jury,并且您的出版材料将在此日期之后提交至会议,请引用这篇论文。
  • (2023.07.30) **公告:**您可以查看我们的官方公告文件,该文件声明了关于本代码库中提供的工作jury被抄袭的指控。

可用指标

下表显示了当前可用指标的支持状态。

指标Jury 支持HF/evaluate 支持
准确率-数值:heavy_check_mark::white_check_mark:
准确率-文本:heavy_check_mark::x:
Bartscore:heavy_check_mark::x:
Bertscore:heavy_check_mark::white_check_mark:
Bleu:heavy_check_mark::white_check_mark:
Bleurt:heavy_check_mark::white_check_mark:
CER:heavy_check_mark::white_check_mark:
CHRF:heavy_check_mark::white_check_mark:
COMET:heavy_check_mark::white_check_mark:
F1-数值:heavy_check_mark::white_check_mark:
F1-文本:heavy_check_mark::x:
METEOR:heavy_check_mark::white_check_mark:
精确率-数值:heavy_check_mark::white_check_mark:
精确率-文本:heavy_check_mark::x:
Prism:heavy_check_mark::x:
召回率-数值:heavy_check_mark::white_check_mark:
召回率-文本:heavy_check_mark::x:
ROUGE:heavy_check_mark::white_check_mark:
SacreBleu:heavy_check_mark::white_check_mark:
Seqeval:heavy_check_mark::white_check_mark:
Squad:heavy_check_mark::white_check_mark:
TER:heavy_check_mark::white_check_mark:
WER:heavy_check_mark::white_check_mark:
其他指标*:white_check_mark::white_check_mark:

* 表示除表中列出的指标外,evaluate包中可用的其他指标的占位符。

注意

  • :heavy_check_mark: 表示完全支持Jury,这意味着支持所有输入类型组合(单个预测和单个参考、单个预测和多个参考、多个预测和多个参考)。

  • :white_check_mark: 表示支持该指标(对于Jury,通过evaluate支持),因此可以(也应该)按照evaluate实现中的指示使用,就像使用evaluate指标一样,尽管目前这些指标还不能完全支持Jury。

请求新指标

如需请求新指标,请提出问题并提供最低限度的信息。同时,我们也欢迎针对新指标支持的PR。

安装

通过pip安装:

pip install jury

或从源代码构建:

git clone https://github.com/obss/jury.git
cd jury
python setup.py install

注意: 在Windows机器上,由于pywin32包的原因,某些依赖于sacrebleu包的指标可能会出现故障。为此,我们在安装配置中固定了Windows平台的pywin32版本。但是,如果pywin32在您的环境中仍然造成问题,我们强烈建议使用conda管理器安装该包,命令为conda install pywin32

使用方法

API使用

只需两行代码即可评估生成的输出。

from jury import Jury

scorer = Jury()
predictions = [
    ["猫在垫子上", "有只猫在垫子上玩耍"], 
    ["看!一个美好的日子。"]
]
references = [
    ["猫在垫子上玩耍。", "猫在垫子上玩。"], 
    ["今天是个美好的日子", "外面的天气很好。"]
]
scores = scorer(predictions=predictions, references=references)

在实例化时指定要使用的指标。

scorer = Jury(metrics=["bleu", "meteor"])
scores = scorer(predictions, references)

单独使用指标

您可以直接从jury.metrics中以类的形式导入指标,然后按需实例化和使用。

from jury.metrics import Bleu

bleu = Bleu.construct()
score = bleu.compute(predictions=predictions, references=references)

可以在compute()中指定额外参数

from jury.metrics import Bleu

bleu = Bleu.construct()
score = bleu.compute(predictions=predictions, references=references, max_order=4)

或者在实例化时指定

from jury.metrics import Bleu
bleu = Bleu.construct(compute_kwargs={"max_order": 1})
score = bleu.compute(predictions=predictions, references=references)

请注意,您可以通过jury.load_metric无缝访问juryevaluate的指标。

import jury
bleu = jury.load_metric("bleu")
bleu_1 = jury.load_metric("bleu", resulting_name="bleu_1", compute_kwargs={"max_order": 1})
# 在`jury`中不可用但在`evaluate`中可用的指标
wer = jury.load_metric("competition_math") # 它会回退到`evaluate`包并发出警告

命令行使用

你可以指定预测文件和参考文件路径来获取结果分数。两个文件中的每一行应该是成对的。你可以选择提供reduce函数和结果导出路径。

jury eval --predictions /path/to/predictions.txt --references /path/to/references.txt --reduce_fn max --export /path/to/export.txt

你也可以提供预测文件夹和参考文件夹来评估多个实验。但在这种设置下,需要成对评估的预测和参考文件必须具有相同的文件名。这些相同的名称会被配对用于预测和参考。

jury eval --predictions /path/to/predictions_folder --references /path/to/references_folder --reduce_fn max --export /path/to/export.txt

如果你想指定指标,而不使用默认值,请在配置文件(json)的metrics键中指定。

{
  "predictions": "/path/to/predictions.txt",
  "references": "/path/to/references.txt",
  "reduce_fn": "max",
  "metrics": [
    "bleu",
    "meteor"
  ]
}

然后,你可以使用config参数调用jury eval。

jury eval --config path/to/config.json

自定义指标

你可以通过继承jury.metrics.Metric来使用自定义指标,你可以在jury/metrics中查看Jury当前实现的指标。对于Jury目前不支持的指标,它会回退到evaluate的实现,你可以在evaluate/metrics中查看evaluate可用的指标。

Jury本身使用evaluate.Metric作为基类来驱动其自己的基类jury.metrics.Metric。接口类似;但是,Jury通过处理每个指标的输入,使指标采用统一的输入类型,并允许支持多种输入类型,如:

  • 单预测 & 单参考
  • 单预测 & 多参考
  • 多预测 & 多参考

作为自定义指标,两个基类都可以使用;但是,我们强烈建议使用jury.metrics.Metric,因为它有几个优势,比如支持上述输入类型的计算或统一输入类型。

from jury.metrics import MetricForTask

class CustomMetric(MetricForTask):
    def _compute_single_pred_single_ref(
        self, predictions, references, reduce_fn = None, **kwargs
    ):
        raise NotImplementedError

    def _compute_single_pred_multi_ref(
        self, predictions, references, reduce_fn = None, **kwargs
    ):
        raise NotImplementedError

    def _compute_multi_pred_multi_ref(
            self, predictions, references, reduce_fn = None, **kwargs
    ):
        raise NotImplementedError

更多详情,请查看基础指标实现jury.metrics.Metric

贡献

我们随时欢迎PR :)

安装

git clone https://github.com/obss/jury.git
cd jury
pip install -e ".[dev]"

此外,你需要使用以下命令单独安装通过git源提供的包。对于好奇"为什么?"的人来说,简短的解释是PYPI出于安全原因不允许索引直接依赖于非pypi包的包。文件requirements-dev.txt包含目前只能通过git源获得的包,或者它们是PYPI包但没有最新发布或与Jury不兼容,因此它们被添加为git源或指向特定的提交。

pip install -r requirements-dev.txt

测试

要进行测试,只需运行。

python tests/run_tests.py

代码风格

要检查代码风格,

python tests/run_code_style.py check

要格式化代码库,

python tests/run_code_style.py format

引用

如果你在工作中使用了这个包,请引用它:

@misc{cavusoglu2023jury,
  title={Jury: A Comprehensive Evaluation Toolkit}, 
  author={Devrim Cavusoglu and Ulas Sert and Secil Sen and Sinan Altinuc},
  year={2023},
  eprint={2310.02040},
  archivePrefix={arXiv},
  primaryClass={cs.CL},
  doi={10.48550/arXiv.2310.02040}
}

社区互动

我们使用GitHub Issue Tracker来跟踪一般问题。问题可以是错误报告、功能请求或新指标类型的实现。请参考相关的issue模板来开启新的issue。

位置
错误报告错误报告模板
新指标请求请求实现指标
其他所有问题和疑问一般问题

许可证

根据MIT许可证授权。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号