热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LLaMA-MoE
llama-moe - 专家混合模型,支持持续预训练
Github
开源项目
LLaMA
MoE
LLaMA-MoE
SlimPajama
Sheared LLaMA
LLaMA-MoE是基于LLaMA和SlimPajama的开源专家混合模型。通过将LLaMA的FFN划分为稀疏专家并加入top-K门控,模型在优化的数据采样权重下进行持续预训练。特点包括轻量化、多种专家构建方法、多种门控策略和快速预训练,适合部署和研究。提供详细的安装指南和技术文档,帮助用户快速使用并评估模型性能。
1
1
相关文章
LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练
3 个月前
LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号