热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#OLMoE
OLMoE-1B-7B-0924 - 开源混合专家模型,具备高性价比和竞争力
Github
开源项目
开源
大语言模型
模型
Huggingface
Mixture-of-Experts
OLMoE
allenai
OLMoE-1B-7B-0924是一个混合专家语言模型,具备1B个活跃和7B总参数,以其高性能和成本效益在同类模型中表现出色,并可竞争于更大规模的模型如Llama2-13B。该项目完全开源,提供了详细的预训练、监督微调及偏好优化的检查点和相关资源,适合自然语言处理领域的研究和开发。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号