热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#增量预训练
Chinese-Mixtral-8x7B - 增强中文编解码能力的开源大模型
Chinese-Mixtral-8x7B
MoE模型
增量预训练
模型下载
推理加速
Github
开源项目
Chinese-Mixtral-8x7B通过中文扩词表和增量预训练,提高了在中文编解码和生成理解能力。项目提供完整的开源模型及预训练代码,支持QLoRA训练和多种推理加速方案。其在中文知识和理解上的表现卓越,同时在英文方面也表现不俗,适用于各种中文自然语言处理应用场景。
1
1
相关文章
Chinese-Mixtral-8x7B: 开启中文大规模语言模型新篇章
3 个月前
Chinese-Mixtral-8x7B学习资源汇总 - 开源中文Mixtral混合专家大模型
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号