热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Aurora
Aurora入门学习资料 - 激活Mixtral-8x7B中文对话能力的MoE模型
1 个月前
Aurora是一个基于Mixtral-8x7B的中文MoE模型,通过指令微调激活了模型的中文开放域对话能力。本文汇总了Aurora项目的学习资料和相关资源,帮助读者快速入门和了解这个强大的中文大语言模型。
Aurora
Mixtral-8x7B
指令调优
语言模型
中文对话能力
Github
开源项目
1 个月前
Aurora: 激活Mixtral-8x7B稀疏混合专家模型的中文对话能力
2 个月前
Aurora是一个基于Mixtral-8x7B的中文指令微调模型,通过指令微调激活了模型的中文开放域对话能力。本文详细介绍了Aurora模型的开发过程、评估结果以及使用方法。
Aurora
Mixtral-8x7B
指令调优
语言模型
中文对话能力
Github
开源项目
2 个月前
相关项目
Aurora
Aurora项目通过整合三大中文数据集,提升了Mixtral-8x7B稀疏专家模型的中文对话能力。通过数据预处理和指令微调,该模型在C-Eval、MMLU和CMMLU基准测试中表现出色。这项研究首次在稀疏专家模型上应用指令微调,提升了模型的架构能力,特别是在零样本任务中表现卓越。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号