Logo

#MoE

LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型

1 个月前
Cover of LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型

LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练

2 个月前
Cover of LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练

mixtral-offloading入门指南 - 在普通硬件上运行大型语言模型的高效方案

1 个月前
Cover of mixtral-offloading入门指南 - 在普通硬件上运行大型语言模型的高效方案

Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析

2 个月前
Cover of Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析