roberta-large-ontonotes5项目介绍
roberta-large-ontonotes5是一个基于roberta-large模型在tner/ontonotes5数据集上进行微调的命名实体识别(NER)模型。这个项目由T-NER团队开发,旨在提供高性能的命名实体识别能力。
模型特点
该模型具有以下几个突出特点:
- 基于强大的预训练语言模型roberta-large
- 在ontonotes5数据集上进行了专门的微调
- 使用条件随机场(CRF)层提升性能
- 支持多种实体类型的识别
性能表现
在测试集上,该模型展现了优秀的性能:
- F1值(微平均): 0.9086
- 精确率(微平均): 0.9051
- 召回率(微平均): 0.9121
对于不同类型的实体,模型也表现出较好的识别能力,例如:
- 人名(person): F1值达到0.9556
- 组织机构(organization): F1值达到0.9227
- 地理政治实体(geopolitical_area): F1值高达0.9687
使用方法
用户可以通过tner库轻松使用该模型:
-
首先安装tner库:
pip install tner
-
然后在Python中调用模型:
from tner import TransformersNER model = TransformersNER("tner/roberta-large-ontonotes5") model.predict(["Jacob Collier is a Grammy awarded English artist from London"])
训练细节
模型的训练使用了以下主要参数:
- 最大序列长度: 128
- 训练轮数: 15
- 批次大小: 64
- 学习率: 1e-05
完整的训练配置可以在项目的trainer_config.json文件中查看。
项目意义
roberta-large-ontonotes5项目为研究人员和开发者提供了一个高性能的NER模型。它不仅可以直接应用于各种NLP任务,还可以作为研究跨领域和跨语言NER的基础。项目开源了模型检查点,方便其他研究者进行进一步的探索和改进。
总的来说,这是一个功能强大、易于使用、且具有重要研究价值的NER模型项目。