热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#T5 v1.1
t5-large-medium - 基于Transformer的日文预训练模型,提高NLP任务性能
Retrieva
日语
Huggingface
T5 v1.1
开源项目
模型
预训练
Github
Transformer
该T5 v1.1模型基于Transformer架构,专为日文语料进行预训练。通过使用GEGLU激活函数代替ReLU,提升了文本生成质量。模型在预训练时关闭Dropout以提升泛化能力,微调时可重启。训练数据包括mC4/ja和日本Wikipedia,确保日文内容的纯净性。此大型模型拥有约7.7亿参数,适用于广泛的日文自然语言处理任务,表现出优异的性能与适应性。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号