热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#稀疏混合专家
Mixtral-8x7B-v0.1 - 多语言预训练大语言模型 超越Llama 2 70B性能
模型优化
Mixtral-8x7B
Huggingface
模型
大语言模型
稀疏混合专家
Github
开源项目
Hugging Face
Mixtral-8x7B是一款预训练的生成式稀疏专家混合大语言模型,在多数基准测试中性能优于Llama 2 70B。该模型支持法语、意大利语、德语、西班牙语和英语等多语言处理。开发者可通过Hugging Face transformers库或vLLM部署使用,并可采用半精度、8位和4位量化等方法降低内存占用。作为基础模型,Mixtral-8x7B不含内置审核机制,使用时需注意。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号