Logo

#专家混合

Mixture-of-Experts: 提升深度学习模型性能的强大技术

2 个月前
Cover of Mixture-of-Experts: 提升深度学习模型性能的强大技术

ESFT: 专家特化微调技术提升大语言模型性能

2 个月前
Cover of ESFT: 专家特化微调技术提升大语言模型性能

Soft MoE - PyTorch:Brain's Vision团队提出的专家混合模型的实现

2 个月前
Cover of Soft MoE - PyTorch:Brain's Vision团队提出的专家混合模型的实现