#MoE

LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型

2024年09月10日
Cover of LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型

mixtral-offloading入门指南 - 在普通硬件上运行大型语言模型的高效方案

2024年09月10日
Cover of mixtral-offloading入门指南 - 在普通硬件上运行大型语言模型的高效方案

LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练

2024年08月30日
Cover of LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练

Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析

2024年08月30日
Cover of Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析