#Mixtral

Chinese-Mixtral - 使用Sparse MoE架构的中文Mixtral模型
Chinese-MixtralMixtral指令精调稀疏混合专家模型大模型量化Github开源项目
模型基于Mistral.ai的Mixtral模型开发,经过中文增量训练与指令精调,具备处理长文本(原生支持32K上下文,实测可达128K)的能力。包括中文Mixtral基础模型与指令模型,显著提升数学推理和代码生成性能。通过llama.cpp进行量化推理,最低仅需16G内存。开源提供代码、训练脚本与详细教程,支持多种推理和部署工具,适合个人电脑本地快速部署量化模型。
dolphin-2.7-mixtral-8x7b - 灵活的AI模型助力编码任务,增强开发效能与合规
开源项目Dolphin模型GithubHuggingface编程训练模型图灵测试Mixtral
Dolphin 2.7是Dolphin-2.5/2.6的升级版,通过transformers库的Mixtral修正和门层调整,提升了性能。该模型在编码任务中表现优异,同时进行去偏见处理以提高合规性。需注意模型对用户请求的高度顺从性,建议用户自行设置合规层确保安全。项目由Convai资助,适用于多种高效和合规的AI应用。
mixtral-7b-8expert - 高性能开源混合专家语言模型,支持多语言并具有出色的基准分数
机器学习GithubMixtral自然语言处理Huggingface混合专家模型开源项目模型人工智能模型
Mixtral-7b-8expert是MistralAI开发的混合专家(MoE)模型在Hugging Face平台的实现。这个开源项目在MMLU、hella swag等多项基准测试中表现出色,支持英、法、意、西、德五种语言。模型提供简便的推理设置,基于Apache-2.0许可发布,适合自然语言处理研究和应用开发。