KBIR项目简介
项目背景
KBIR,即“关键短语边界填充与替换”(Keyphrase Boundary Infilling with Replacement),是一个旨在从文本中学习丰富关键短语表示的模型。这个模型在2022年NAACL会议的论文“从文本中学习关键短语的丰富表示”中进行了详细描述。KBIR模型是在RoBERTa架构的基础上发展而来的,并在预训练期间添加了“填充头”和“替换分类头”两个特征。然而,这两个头并不用于模型的下游评估阶段。通过放弃这些组件,我们可以使其兼容于所有由RoBERTa支持的AutoModel模型类。
下游评估
KBIR模型通过一些下游任务的评估展示了其优异的表现,这些任务主要包括关键短语抽取、命名实体识别和问答系统等。
关键短语抽取
在关键短语抽取任务中,KBIR相较于其他模型展示了非常优异的性能。这些模型分别在不同的数据集(如Inspec、SE10和SE17)中进行了评估。
模型 | Inspec | SE10 | SE17 |
---|---|---|---|
RoBERTa+BiLSTM-CRF | 59.5 | 27.8 | 50.8 |
RoBERTa+TG-CRF | 60.4 | 29.7 | 52.1 |
SciBERT+Hypernet-CRF | 62.1 | 36.7 | 54.4 |
KBIR-CRF | 62.72 | 40.15 | 62.56 |
命名实体识别
在命名实体识别任务中,KBIR同样表现不俗,展示了与现有优秀模型非常接近甚至更好的性能。
模型 | F1 |
---|---|
LSTM-CRF (Lample et al., 2016) | 91.0 |
ELMo (Peters et al., 2018) | 92.2 |
BERT (Devlin et al., 2018) | 92.8 |
KBIR | 92.97 |
问答系统
在问答系统任务中,KBIR也展示了强大的信息抽取能力,达到了与已知最佳模型接近的效果。
模型 | EM | F1 |
---|---|---|
BERT | 84.2 | 91.1 |
XLNet | 89.0 | 94.5 |
KBIR | 89.04 | 94.75 |
灵活性与扩展性
由于KBIR是基于RoBERTa架构构建的,它可以与任何RoBERTa支持的AutoModel设置兼容。因此,鼓励研究人员尝试在不同的数据集上微调KBIR,并报告下游结果。
总结
KBIR通过其独特的预训练目标和丰富的表示学习,从多方面展示了其在自然语言处理任务中的强大潜力。不仅在关键短语抽取任务上取得了显著的性能提升,在命名实体识别和问答系统等任务中也表现出色。
关于任何问题,可以联系:dmahata@bloomberg.net。