#MoE

LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型

2 个月前
Cover of LLaMA-MoE学习资料汇总 - 基于LLaMA的轻量级混合专家模型

mixtral-offloading入门指南 - 在普通硬件上运行大型语言模型的高效方案

2 个月前
Cover of mixtral-offloading入门指南 - 在普通硬件上运行大型语言模型的高效方案

LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练

3 个月前
Cover of LLaMA-MoE: 基于LLaMA的混合专家模型及其持续预训练

Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析

3 个月前
Cover of Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析