bert-restore-punctuation 项目介绍
项目背景
bert-restore-punctuation 是一个基于 BERT 的小写文本标点恢复模型。该模型进行了细调,专门用于在文本中恢复标点符号和单词大写的正确格式。这个模型尤其适用于自动语音识别(ASR)产生的输出或者其他因某种原因丢失标点符号的文本。
功能介绍
该模型能够恢复以下标点符号:[! ? . , - : ; '],并且还可以恢复单词的大写形式。它主要服务于一般英语语言的标点恢复,同时也可以进一步在特定领域的文本上进行细调,以完成更具体的标点恢复任务。
使用指南
为了运行 bert-restore-punctuation 模型,用户首先需要安装相关的软件包:
pip install rpunct
然后,可以使用如下 Python 代码快速实现标点恢复:
from rpunct import RestorePuncts
# 默认语言为 'english'
rpunct = RestorePuncts()
result = rpunct.punctuate("in 2018 cornell researchers built a high-powered detector...")
print(result)
这个简单的函数将针对提供的英文文本恢复标点及大写,生成一个格式化正确的段落。
训练数据和模型精度
该模型是通过 Yelp 评论数据库的 560,000 条英文文本样本进行细调的,在 3 个训练轮次中取得了最佳收敛。模型在 45,990 条验证文本样本上达到了以下精度:
- 总体准确率:91%
- F1 分数:90%
详细的标点恢复性能如下:
标签 | 精确率 | 召回率 | F1 得分 | 支持数目 |
---|---|---|---|---|
. | 0.69 | 0.84 | 0.75 | 2488 |
none | 0.96 | 0.96 | 0.96 | 35352 |
其他标点的表现略有不同,如 !、,、**?**等,具体可根据实际需求查看表格。 |
项目的潜在应用
该模型尤其适合对输出缺少标点符号的文本进行自动处理和格式化,例如将自动语音识别系统的输出文本转换为易于阅读的书面格式。同时,对于需要在特定领域(如科学论文、法律文档等)中应用标点恢复的任务,也可以利用该模型进行更细致的领域适应性训练。
联系信息
如有任何问题、反馈或对类似模型的需求,请联系 Daulet Nurmanbetov,通过电子邮件 daulet.nurmanbetov@gmail.com 与他取得联系。
总体而言,bert-restore-punctuation 提供了一种高效且自动化的方式来优化文本的可读性和格式化,对于日益增长的文本处理需求提供了有力支持。