热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#mGPT
mgpt - 支持61种语言的多语言生成式预训练模型
mGPT
多语言模型
预训练
自然语言处理
深度学习
Github
开源项目
mGPT是一个基于GPT-3的多语言模型,覆盖25个语系的61种语言。该模型使用维基百科和C4语料库进行预训练,包含低资源语言。mGPT在语言建模、跨语言自然语言理解和世界知识探测等方面表现出色,上下文学习能力与同期模型相当。项目代码和模型以MIT许可证开源。
1
1
相关文章
mGPT: 突破语言障碍的多语言生成预训练模型
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号