热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#MoLM
ModuleFormer - 高效可扩展的模块化语言模型架构
Github
开源项目
大语言模型
模块化
稀疏激活
ModuleFormer
MoLM
ModuleFormer是一种新型MoE架构,结合棒断注意力头和前馈专家两种专家类型。通过稀疏激活,实现高效性、可扩展性和专业化。基于此架构的MoLM语言模型系列,参数规模40亿到80亿不等,在提高吞吐量的同时保持性能,易于扩展新知识和针对特定任务优化。MoLM在多项基准测试中展现出优秀的效率和性能。
1
1
相关文章
ModuleFormer:IBM推出的创新混合专家模型架构
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号