热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Qwen-7B
Qwen-7B - 70亿参数规模的多语言开源预训练语言模型
评测
Qwen-7B
大语言模型
Huggingface
Github
开源项目
模型
预训练
多语言
Qwen-7B是一个70亿参数规模的开源预训练语言模型,基于超过2.4万亿tokens的多语言语料训练而成。该模型支持15万规模的多语言词表,在常识推理、代码生成、数学计算、机器翻译等多个评测任务中表现优异。通过采用RoPE位置编码、SwiGLU激活函数等技术,Qwen-7B具备强大的多语言理解和处理能力,同时支持长文本输入和高效推理。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号