BERTIN: 一个高效的西班牙语预训练语言模型
BERTIN是一系列基于BERT的西班牙语模型。本项目介绍的是其中的RoBERTa-base模型,该模型是在mC4数据集的西班牙语部分上从头训练而成的。
项目背景
虽然西班牙语是世界第二大母语使用者语言,但大多数自然语言处理研究仍主要针对英语。像BERT、XLNet或GPT-2这样的重要贡献有时需要几年时间才能在西班牙语中使用,而且通常是通过多语言版本实现的,其性能不如英语替代品。
BERTIN项目的主要目标是发布第一个西班牙语RoBERTa模型。此外,该项目还希望探索使大型模型训练变得更容易和更快的技术,从而为更多规模较小的团队提供训练大型语言模型的机会。
创新方法
为了在有限的时间和资源内训练出性能良好的模型,该项目探索了一种称为"困惑度采样"的新技术。具体做法是:
- 计算mC4-es数据集中每个文档的困惑度
- 根据困惑度分布设计两种采样函数:阶跃函数和高斯函数
- 使用这些函数从原始数据中采样约50M个样本(原始数据约416M个样本)
通过这种方法,团队能够使用约1/8的数据、1/2的训练步骤,就训练出了性能可观的模型。
训练细节
模型训练采用了与Liu等人(2019)相同的设置和超参数,但只训练了一半的步骤(250k),序列长度为128。在128序列长度上训练250k步后,又在512序列长度上继续训练了约50k步。
评估结果
BERTIN模型在多项下游任务上表现良好,与其他西班牙语预训练模型相比具有竞争力。例如,在UD-POS和MLDoc任务上,BERTIN甚至超过了RoBERTa-base和RoBERTa-large模型。
项目意义
BERTIN项目不仅发布了高质量的西班牙语预训练模型,还探索了高效的数据采样和训练方法,为自然语言处理的民主化做出了贡献。该项目证明,即使是资源有限的小团队,也有可能训练出性能卓越的大型语言模型。