热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#MPT-7B
mpt-7b - 高性能开源大语言模型
Huggingface
模型
深度学习
大语言模型
开源
MPT-7B
Github
开源项目
自然语言处理
MPT-7B是一个开源大语言模型,在1万亿英文文本和代码上预训练。其改进的Transformer架构支持高效训练和推理,可处理超长输入。模型采用ALiBi技术处理长序列,无需位置嵌入。MPT-7B支持商业使用,为开发者提供了适用于多种下游任务微调的强大基础模型。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号