项目介绍:indobert-base-p2
概述
IndoBERT Base Model(第二阶段 - 小写无区分)是专门为印度尼西亚语设计的最先进语言模型,它以BERT模型为基础。这个预训练模型采用了掩码语言建模(Masked Language Modeling, MLM)和句子预测(Next Sentence Prediction, NSP)目标进行训练。IndoBERT的开发旨在提升印度尼西亚语自然语言处理的性能。
模型特点
IndoBERT的预训练模型系列包括多种参数规模和架构的变种,所有这些模型都是在同一数据集——Indo4B(包含23.43 GB文本)上进行训练的。其中,indobenchmark/indobert-base-p2
是基础版本,拥有1.245亿参数,适用于多种语言任务。
如何使用
要使用indobert-base-p2模型,可以通过Python语言加载相应的模型和分词器。
加载模型和分词器
使用以下代码加载模型和分词器:
from transformers import BertTokenizer, AutoModel
tokenizer = BertTokenizer.from_pretrained("indobenchmark/indobert-base-p2")
model = AutoModel.from_pretrained("indobenchmark/indobert-base-p2")
提取上下文表示
可以通过如下代码提取文本的上下文表示:
x = torch.LongTensor(tokenizer.encode('aku adalah anak [MASK]')).view(1,-1)
print(x, model(x)[0].sum())
这段代码的作用是给定一句印尼语,模型会预测缺失的单词,帮助用户理解和使用语言模型进行自然语言处理任务。
作者信息
IndoBERT模型由一组研究人员训练和评估,他们包括Bryan Wilie、Karissa Vincentio、Genta Indra Winata、Samuel Cahyawijaya、Xiaohong Li、Zhi Yuan Lim、Sidik Soleman、Rahmad Mahendra、Pascale Fung、Syafri Bahar和Ayu Purwarianti。
引用信息
如果在研究中使用了IndoBERT模型,请使用以下引用格式:
@inproceedings{wilie2020indonlu,
title={IndoNLU: Benchmark and Resources for Evaluating Indonesian Natural Language Understanding},
author={Bryan Wilie and Karissa Vincentio and Genta Indra Winata and Samuel Cahyawijaya and X. Li and Zhi Yuan Lim and S. Soleman and R. Mahendra and Pascale Fung and Syafri Bahar and A. Purwarianti},
booktitle={Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing},
year={2020}
}
通过以上内容,希望可以帮助更多对印尼语自然语言处理有兴趣的从业者和研究人员理解和使用indiobert-base-p2这一优秀的语言模型。