热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#开源可商用
Baichuan-7B - 开源中英双语大规模预训练模型,支持商用
Github
开源项目
预训练语言模型
Baichuan-7B
开源可商用
中英双语
Transformer结构
Baichuan-7B是由百川智能开发的开源可商用中英双语大规模预训练语言模型。基于Transformer结构,该模型在1.2万亿tokens上训练,拥有70亿参数,并提供4096长度的上下文窗口。在中文和英文的基准测试(C-Eval和MMLU)中表现出色。该模型可在Hugging Face和ModelScope平台上获取,适合开发者和研究人员使用。
1
1
相关文章
Baichuan-7B:开源大规模预训练语言模型的新标杆
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号