Logo

#MoE模型

Chinese-Mixtral-8x7B学习资源汇总 - 开源中文Mixtral混合专家大模型

1 个月前
Cover of Chinese-Mixtral-8x7B学习资源汇总 - 开源中文Mixtral混合专家大模型

Chinese-Mixtral-8x7B: 开启中文大规模语言模型新篇章

2 个月前
Cover of Chinese-Mixtral-8x7B: 开启中文大规模语言模型新篇章

DeepSeek-Coder-V2: 突破闭源模型在代码智能领域的壁垒

2 个月前
Cover of DeepSeek-Coder-V2: 突破闭源模型在代码智能领域的壁垒