#Mixtral
相关项目
Chinese-Mixtral
模型基于Mistral.ai的Mixtral模型开发,经过中文增量训练与指令精调,具备处理长文本(原生支持32K上下文,实测可达128K)的能力。包括中文Mixtral基础模型与指令模型,显著提升数学推理和代码生成性能。通过llama.cpp进行量化推理,最低仅需16G内存。开源提供代码、训练脚本与详细教程,支持多种推理和部署工具,适合个人电脑本地快速部署量化模型。
dolphin-2.7-mixtral-8x7b
Dolphin 2.7是Dolphin-2.5/2.6的升级版,通过transformers库的Mixtral修正和门层调整,提升了性能。该模型在编码任务中表现优异,同时进行去偏见处理以提高合规性。需注意模型对用户请求的高度顺从性,建议用户自行设置合规层确保安全。项目由Convai资助,适用于多种高效和合规的AI应用。
mixtral-7b-8expert
Mixtral-7b-8expert是MistralAI开发的混合专家(MoE)模型在Hugging Face平台的实现。这个开源项目在MMLU、hella swag等多项基准测试中表现出色,支持英、法、意、西、德五种语言。模型提供简便的推理设置,基于Apache-2.0许可发布,适合自然语言处理研究和应用开发。