热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#BERT分词器
GPT2-Chinese - GPT2-Chinese:支持多种中文Token化和大规模语料训练
GPT2-Chinese
预训练模型
中文语言模型
BERT分词器
Huggingface
Github
开源项目
GPT2-Chinese项目提供了适用于中文的GPT2训练代码,支持BERT和BPE Tokenizer,能够生成诗词、新闻、小说等内容,适用于大规模语料训练。该项目基于Pytorch实现,支持最新的预训练模型,如通用中文模型和古诗词模型。详细的模型信息可以在Huggingface Model Hub中找到。用户可以自行训练和生成文本,同时支持FP16和梯度累积。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号