#Mistral-7B

chatd - 本地AI文档聊天工具学习资料汇总

2 个月前
Cover of chatd - 本地AI文档聊天工具学习资料汇总
相关项目
Project Cover

chatd

Chatd是一款桌面应用,使用本地大型语言模型与文件交互,确保数据安全,不上传云端。应用内置LLM运行程序,开箱即用,使用Ollama服务器支持跨平台LLM运行API,并自动管理其生命周期。支持GPU加速和自定义模型选择,适用于MacOS、Windows和Linux系统。

Project Cover

repeng

repeng是一个用于表示工程的Python库,可在不到一分钟内生成控制向量,适用于各类AI和机器学习模型。支持通过预训练模型快速训练,并可生成定制数据集和进行推理。支持向量导出并在其他量化模型中使用,但不支持MoE模型。详情参阅官方博客和文档。

Project Cover

tevatron

Tevatron提供高效工具包,支持在GPU和TPU上大规模训练和推理神经检索模型,集成DeepSpeed和LoRA等技术,可加载HuggingFace的预训练模型,适用于神经检索和开放域QA任务。

Project Cover

OpenHermes-2.5-Mistral-7B

OpenHermes-2.5-Mistral-7B是Mistral-7B的改进版本,通过100万条高质量数据训练而成。模型在GPT4All、AGIEval和TruthfulQA等基准测试中表现出色,同时提升了代码生成能力。它使用ChatML格式,支持系统提示和多轮对话。凭借在通用任务和编程领域的优异表现,OpenHermes-2.5成为一个全面而强大的开源语言模型选择。

Project Cover

Azzurro

Azzurro是基于Mistral-7B-v0.2的意大利语大语言模型,经过SFT和LoRA技术优化。模型使用SQUAD-it等公开数据集和自制数据集训练,擅长理解和维护上下文,适用于RAG任务和上下文感知应用。在hellaswag、arc和mmlu评估集上,Azzurro平均得分0.52。该模型易于集成,为意大利语NLP项目提供有力支持。同时提供4位和8位量化版本,适应不同硬件环境。

Project Cover

zephyr-7b-sft-full

zephyr-7b-sft-full是基于Mistral-7B-v0.1的微调语言模型,利用HuggingFaceH4/ultrachat_200k数据集训练而成。该项目采用多GPU分布式训练,结合Adam优化器和余弦学习率调度,在评估集上实现0.9353的损失值。模型基于Transformers 4.36.2框架和PyTorch 2.1.2环境开发,旨在提供高效的语言处理功能。

Project Cover

Nous-Hermes-2-Mistral-7B-DPO-GGUF

Nous-Hermes-2-Mistral-7B-DPO是一款基于Mistral 7B架构的开源语言模型。经过DPO训练后,该模型在AGIEval、BigBench Reasoning等多项基准测试中表现优异。它支持多轮对话和角色扮演等多样化任务,采用ChatML格式,与OpenAI API兼容。这一高性能模型为开发者和研究人员提供了强大而灵活的自然语言处理工具。

Project Cover

Mistral-Ita-7b

Mistral-Ita-7b是基于Mistral-7B-v0.1架构开发的意大利语言模型,在hellaswag_it、arc_it和m_mmlu_it测试中平均准确率为58.66%。模型支持4位量化,可降低资源占用并提升处理效率。通过Python接口可实现意大利语文本生成及其他自然语言处理功能。

Project Cover

iris-7b

Iris-7B是一个基于Mistral-7B-v0.2的韩英双向翻译模型,经346K多领域数据集训练。其BLEU评分达0.40,与Google、Azure等商业服务comparable。模型支持韩英互译,精准把握语法、词汇和语境,适用于多种翻译场景。作为开源项目,Iris-7B为研究者和开发者提供了一个高性能的翻译工具选择。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号