#Mistral-7B

chatd - 本地AI文件交互工具,数据安全保密
ChatdOllamaMistral-7B本地AI文档聊天Github开源项目
Chatd是一款桌面应用,使用本地大型语言模型与文件交互,确保数据安全,不上传云端。应用内置LLM运行程序,开箱即用,使用Ollama服务器支持跨平台LLM运行API,并自动管理其生命周期。支持GPU加速和自定义模型选择,适用于MacOS、Windows和Linux系统。
repeng - 用于表示工程的Python库,快速生成控制向量
repeng控制向量表示工程Python库Mistral-7BGithub开源项目
repeng是一个用于表示工程的Python库,可在不到一分钟内生成控制向量,适用于各类AI和机器学习模型。支持通过预训练模型快速训练,并可生成定制数据集和进行推理。支持向量导出并在其他量化模型中使用,但不支持MoE模型。详情参阅官方博客和文档。
tevatron - 神经检索模型训练与推理工具
TevatronMistral-7BLLM神经检索模型LoRA微调HuggingFaceGithub开源项目
Tevatron提供高效工具包,支持在GPU和TPU上大规模训练和推理神经检索模型,集成DeepSpeed和LoRA等技术,可加载HuggingFace的预训练模型,适用于神经检索和开放域QA任务。
zephyr-7b-sft-full - Mistral-7B衍生的微调语言模型 基于UltraChat数据集
神经网络开源项目深度学习Mistral-7B模型机器学习Github模型微调Huggingface
zephyr-7b-sft-full是基于Mistral-7B-v0.1的微调语言模型,利用HuggingFaceH4/ultrachat_200k数据集训练而成。该项目采用多GPU分布式训练,结合Adam优化器和余弦学习率调度,在评估集上实现0.9353的损失值。模型基于Transformers 4.36.2框架和PyTorch 2.1.2环境开发,旨在提供高效的语言处理功能。
Nous-Hermes-2-Mistral-7B-DPO-GGUF - 多轮对话和角色扮演的高性能开源语言模型
开源项目DPOMistral-7B模型人工智能模型训练机器学习GithubHuggingface
Nous-Hermes-2-Mistral-7B-DPO是一款基于Mistral 7B架构的开源语言模型。经过DPO训练后,该模型在AGIEval、BigBench Reasoning等多项基准测试中表现优异。它支持多轮对话和角色扮演等多样化任务,采用ChatML格式,与OpenAI API兼容。这一高性能模型为开发者和研究人员提供了强大而灵活的自然语言处理工具。
Mistral-Ita-7b - 基于Mistral架构的意大利语自然语言处理模型
意大利语言模型开源项目自然语言处理模型Mistral-7BHuggingface文本生成模型量化Github
Mistral-Ita-7b是基于Mistral-7B-v0.1架构开发的意大利语言模型,在hellaswag_it、arc_it和m_mmlu_it测试中平均准确率为58.66%。模型支持4位量化,可降低资源占用并提升处理效率。通过Python接口可实现意大利语文本生成及其他自然语言处理功能。
iris-7b - 韩英双向翻译模型展现商业级性能
韩英翻译开源项目Iris模型Mistral-7B深度学习Huggingface机器翻译Github
Iris-7B是一个基于Mistral-7B-v0.2的韩英双向翻译模型,经346K多领域数据集训练。其BLEU评分达0.40,与Google、Azure等商业服务comparable。模型支持韩英互译,精准把握语法、词汇和语境,适用于多种翻译场景。作为开源项目,Iris-7B为研究者和开发者提供了一个高性能的翻译工具选择。
Mistral-7B-Claude-Chat-GGUF - 高性能AI语言模型优化版,超强本地对话能力
GGUFllama.cpp量化HuggingfaceGithub开源项目模型AI模型Mistral-7B
Mistral-7B-Claude-Chat模型GGUF版提供多种量化文件(2-8位),支持CPU和GPU推理。采用Vicuna提示模板,适合聊天场景。兼容llama.cpp等多种工具,附详细使用说明。此优化版本旨在本地环境中实现高效AI对话。
mistral-ft-optimized-1227 - 多基础模型融合优化的Mistral模型用于下游任务微调
开源模型性能优化模型合并Mistral-7B模型Github开源项目下游任务Huggingface
该模型通过层级SLERP技术融合了OpenHermes、Neural Chat、MetaMath和OpenChat等基础模型,作为Mistral模型的优化版本,可用于多种下游任务的微调和开发
Mistral-7B-OpenOrca-GPTQ - Mistral语言模型的GPTQ量化优化实现
GPTQ量化自然语言处理开源项目模型GithubHuggingfaceMistral-7B深度学习模型部署
本项目对Mistral-7B-OpenOrca模型进行GPTQ量化处理,提供4位和8位精度、多种分组大小的量化版本。通过优化存储和计算方式,在保持模型性能的同时大幅降低显存占用。项目支持text-generation-webui、Python等多种调用方式,并提供完整的使用文档。
mistral-7b-sft-beta - 基于UltraChat数据集训练的Mistral-7B优化模型
Mistral-7BHuggingFace深度学习Github开源项目模型微调自然语言处理Huggingface
Mistral-7B-sft-beta是一个在UltraChat数据集上训练的大型语言模型,基于Mistral-7B-v0.1开发。作为Zephyr-7B-β的基础训练模型,采用直接偏好优化方法,支持英语文本生成。模型包含7B参数,使用MIT开源协议,通过TRL框架的SFTTrainer在经过筛选的UltraChat对话数据集上完成训练。
Mistral-7B-v0.2 - 模型下载和转换步骤详解
模型检查点Hugging Facetokenizer开源项目模型Mistral-7BHuggingfaceGithub权重转换
本文介绍了Mistral-7B-v0.2模型的下载和转换过程,指导用户通过特定脚本和工具完成模型配置,以便在Huggingface平台上进行部署。同时,还提供了从相关库复制tokenizer模型的步骤,确保功能的完善性。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号