#指令微调
Mistral-Nemo-Instruct-2407-GGUF - 多语言指令微调大规模语言模型
Mistral-Nemo-InstructHuggingface模型指令微调大语言模型Github多语言开源项目自然语言处理
Mistral-Nemo-Instruct-2407是一款基于Mistral-Nemo-Base-2407指令微调的大规模语言模型,支持128k上下文窗口。该模型在多语言和代码任务方面表现优异,可替代Mistral 7B使用。模型在主流基准测试中表现出色,并在多语言任务中展现强大能力。开发者可通过mistral_inference、transformers或NeMo框架使用该模型进行聊天、指令遵循和函数调用等多样化任务。Mistral-Nemo-Instruct-2407采用Apache 2许可证开源发布。
dolly-v2-3b - Databricks发布开源指令微调语言模型支持商业使用
语言模型Huggingface模型指令微调开源DollyDatabricksGithub开源项目
Dolly-v2-3b是Databricks开发的开源指令微调语言模型,基于Pythia-2.8b构建,拥有28亿参数。该模型使用约15,000条指令/回复数据进行训练,涵盖头脑风暴、分类、问答等多个领域。尽管不是最先进模型,但在指令遵循方面表现优异。Dolly-v2-3b采用MIT许可证,支持商业使用,可通过Transformers库轻松部署。
Llama-3.1-Nemotron-70B-Instruct-HF-GGUF - NVIDIA推出支持128K上下文的70B参数指令调优语言模型
Huggingface指令微调开源项目模型Github量化模型大语言模型Llama 3.1Nvidia
NVIDIA基于Llama 3.1框架开发的Nemotron-70B指令模型采用GGUF量化格式,具备128K上下文处理能力。模型在Arena Hard评测中获得85.0分,AlpacaEval 2 LC达到57.6分,GPT-4-Turbo MT-Bench评分8.98。通过优化提升了语言理解和生成能力,可应用于多样化的自然语言处理场景。
Llama-3.1-Swallow-8B-Instruct-v0.1 - 基于Llama 3.1的日英双语大语言模型
大语言模型开源项目指令微调模型日语能力评估基准HuggingfaceLlama 3.1 SwallowGithub
Llama-3.1-Swallow-8B-Instruct是一个基于Meta Llama 3.1持续预训练的日英双语大语言模型。模型使用2000亿个来自日语网络语料库、维基百科、数学和编程领域的token进行训练,并通过日语合成数据进行指令微调。在日语能力显著提升的同时保持了原有的英语水平,各项基准测试表现优异。该模型适合需要高质量日英双语理解和生成的应用场景。
llm-jp-3-1.8b-instruct - 跨平台大规模语言模型的多语言开发与评估
大规模语言模型Github开源项目指令微调transformersHuggingface预训练llm-jp模型
项目由日本国家信息学研究所研发中心开发,提供支持多种编程语言的大型语言模型,如C、Python、Java。采用Transformer架构,模型经过大规模数据集的预训练与优化微调,适用于多语言环境。用户可通过Hugging Face Transformers库轻松集成与使用。项目提供模型技术细节、参数设置和语言标记器使用方法,以及多样化的数据集和评估方案,适用于中文、英文、日文等语言。
Platypus2-7B - 以指令微调提升语言理解的创新模型
Github开源项目指令微调低秩适应HuggingfaceLLaMA2STEM和逻辑数据集Platypus2-7B模型
Platypus2-7B是采用LLaMA2架构的指令微调模型,由Cole Hunter和Ariel Lee开发。该模型通过STEM和逻辑数据集优化语言理解,并在ARC、HellaSwag、MMLU和TruthfulQA任务中经过广泛评估。为确保最佳性能,建议在HF训练中将fp16设置为False,bf16为True。在应用该技术时需注意安全性,以避免潜在风险。有关更多信息,请访问其项目网页。该模型在多个任务中展示出色性能,并提醒用户在应用前进行详细的安全性测试。通过其创新的指令微调方法,Platypus2-7B在语言模型领域引入了新的思路。
Llama-2-7B-32K-Instruct - 长上下文对话模型,支持自定义微调和高效推理
数据集Llama-2-7B-32K-InstructGithub开源项目Together API指令微调长上下文聊天模型Huggingface模型
Llama-2-7B-32K-Instruct是开源长上下文对话模型,微调自高质量指令和对话数据。适用于长上下文的摘要与问答任务,通过评估与多款顶尖模型对比。在Together API的支持下,用户可自定义微调以提升性能。模型数据与使用方法已完全开放,方便个性化开发。建议安装Flash Attention V2以提高推理效率。
Qwen2.5-Coder-7B-Instruct-GGUF - 基于Qwen2.5的7B参数代码专用模型支持超长文本输入与代码生成
GGUF格式大语言模型Github开源项目指令微调模型HuggingfaceQwen2.5-Coder代码生成
Qwen2.5-Coder-7B-Instruct-GGUF是一款开源的代码专用大语言模型,通过5.5万亿token的训练提升了代码生成和推理能力。模型采用transformers架构,参数规模为7.61B,具备32K-128K的长文本处理能力。该模型在保持通用能力的同时优化了编程相关任务,支持GGUF格式并可通过llama.cpp部署,适用于代码智能体等实际应用场景。
granite-8b-code-instruct-GGUF - Granite 8B代码生成模型GGUF量化版发布 提供多种精度选择
Github开源项目指令微调代码模型自然语言处理Huggingface机器学习Granite模型
Granite-8B-Code-Instruct是IBM Research开发的代码生成模型,现已推出GGUF量化版本。该模型在多个开源数据集上微调,具备出色的代码理解和生成能力。量化版本提供Q2至F16多种精度选项,文件大小范围3GB至16GB,适应不同硬件环境。模型采用Apache 2.0许可证,由SanctumAI完成量化处理。
Qwen2.5-Coder-1.5B-Instruct - 支持超长文本处理的智能代码生成模型
长文本处理Qwen2.5-CoderGithub模型指令微调开源项目代码生成Huggingface大语言模型
基于Qwen2.5架构开发的代码特化大语言模型,通过5.5万亿token训练提升了代码生成、推理和修复能力。模型支持长文本处理,具备代码智能体和数学推理功能,采用transformers架构并集成多项先进技术,为代码开发提供全面的辅助支持
Mistral-7B-Instruct-v0.2-llamafile - 高效多功能的开源语言模型
Github模型大型语言模型指令微调开源项目AI模型HuggingfaceMistral-7B-Instruct-v0.2自然语言处理
Mistral-7B-Instruct-v0.2是Mistral AI公司开发的改进版指令微调语言模型,拥有70亿参数。该模型支持多种量化格式和llamafile格式,可在CPU和GPU上高效运行,适用于对话、文本生成等多种场景。用户可根据设备选择合适的量化版本,通过命令行或Python代码轻松使用。模型在多项任务中表现优异,为开发者和研究者提供了强大的开源语言处理工具。
gemma-2-baku-2b-it - 融合指令调优与对话生成的Gemma 2模型
转换器语言模型模型指令微调开源项目HuggingfaceGemma 2模型融合Chat VectorGithub
该模型为rinna/gemma-2-baku-2b的优化版本,采用Chat Vector和ORPO技术,提升了指令跟随和对话生成能力。模型遵循gemma-2的对话格式,具有26层和2304个隐藏单元的transformer架构,通过与google版模型的参数融合实现指令执行,推荐在运行时使用bfloat16精度以优化性能。
LaMini-Flan-T5-248M - 通过微调优化文本生成能力
限制评估开源项目指令微调模型语言模型HuggingfaceGithubLaMini-LM
LaMini-Flan-T5-248M属于LaMini-LM模型系列,基于Flan-T5进行微调,并利用包含258万条样本的LaMini指令数据集进行优化。该模型主要用于提高自然语言处理任务中的文本生成能力,能够响应人类自然语言指令。经过自动评估和用户导向的人类评估,模型性能优异,并提供多种架构和参数配置,满足不同需求。可通过HuggingFace的pipeline工具进行便捷操作。
dolly-v2-7b - 基于Pythia的开源指令微调语言模型
transformer开源项目模型Github机器学习Huggingfacedolly-v2-7b指令微调语言模型
dolly-v2-7b是基于Pythia-6.9b架构的指令微调语言模型,通过15000条高质量指令数据训练而成。模型支持问答、分类、生成等核心功能,并采用MIT许可证开放商用。作为开源项目,其突出特点是具备可靠的指令理解能力,为AI应用开发提供了实用的基础模型选择。
LaMini-T5-738M - 高效精简的738M参数T5语言模型
Huggingface人工智能开源项目模型Github语言模型自然语言处理LaMini-T5-738M指令微调
LaMini-T5-738M是一个经过258万条指令数据集训练的T5语言模型,总参数量为738M。作为LaMini-LM系列成员之一,该模型针对自然语言指令处理进行了优化,在NLP任务评测中表现良好。模型支持通过HuggingFace pipeline快速部署使用。
Qwen2.5-7B-Instruct-GPTQ-Int8 - Qwen2.5模型实现多语言支持与优化长文本处理
开源项目量化模型Github大模型多语言支持Huggingface模型指令微调Qwen2.5
Qwen2.5模型具备多语言支持和改良的长文本处理能力,增强了编程、数学及指令执行的表现。其GPTQ-8位量化模型支持最长128K上下文与最高生成8192个令牌,提供因果语言模型架构,适合多领域应用。支持29种语言,包括中文、英语和法语,为开发者提供多样化的功能。
LaMini-Flan-T5-783M - 增强自然语言处理能力的多样化指令微调模型
模型评估模型训练技术规格指令微调LaMini-Flan-T5-783M模型Github开源项目Huggingface
LaMini-Flan-T5-783M是一款基于LaMini-instruction数据集微调的自然语言处理模型,源于google/flan-t5-large。该模型利用2.58M样本进行训练,展示出卓越的语言生成和理解能力,适用于多种自然语言处理任务。用户可通过HuggingFace的pipeline功能便捷使用,本系列其他模型在不同参数规模下提供最佳性能,满足多样化的技术需求。
RakutenAI-7B-chat - RakutenAI-7B模型的日本语言处理技术与性能表现
日本语言模型RakutenAI-7BMistralGithub开源项目指令微调大型语言模型Huggingface模型
RakutenAI-7B在日本语言理解测试中表现优异,并在英文项目中保持高竞争力。基于Mistral模型架构,该项目成功调整了Mistral-7B-v0.1的预训练权重,词汇表扩展至48k以优化日语字符处理率。独立评估显示其适用于对话应用的性能优越,评分为0.393和0.331,方法简便实用。
dictalm2.0-instruct - 支持对话功能的希伯来语大型语言模型
自然语言生成开源项目模型GithubHuggingface指令微调希伯来语语言模型DictaLM-2.0
通过对DictaLM-2.0模型的指令调优,此项目提升了大型语言模型在希伯来语环境下的指令执行和词汇能力。采用高精度配置和扩展的希伯来语指令数据集,遵循Zephyr-7B-beta的调整方案,专为对话设计,旨在提供流畅的聊天体验。尽管表现出色,但尚未集成内容审核机制,项目期待与社区合作,优化模型在内容监控环境中的应用。
Mistral-7B-Instruct-v0.3-GPTQ - Mistral 7B指令模型的4位量化优化版本
HuggingfaceGPTQ量化开源项目模型Github函数调用大语言模型指令微调Mistral-7B-Instruct-v0.3
Mistral-7B-Instruct-v0.3是一个经过GPTQ 4位量化的语言模型。基于Mistral-7B-v0.3开发,集成了32768词汇量、v3分词器和函数调用功能。模型可用于创意写作等任务,但由于缺少内容审核机制,在应用环境选择上需要谨慎评估。
Qwen2.5-1.5B-Instruct-bnb-4bit - Unsloth功能提升模型微调效率,优化内存占用
Github性能提升模型指令微调开源项目多语言支持TransformerHuggingfaceQwen2.5
Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。
luxia-21.4b-alignment-v1.0 - 指令微调与对齐模型luxia-21.4b-alignment-v1.0
指令微调监督微调使用说明模型Github开源项目luxia-21.4b-alignment-v1.0直接偏好优化Huggingface
luxia-21.4b-alignment-v1.0是基于luxia-21.4b的指令微调和对齐模型,使用监督微调和直接偏好优化技术,提升模型的准确性和使用体验。
Llama-3.1-Swallow-70B-Instruct-v0.1 - 强化日语和英语能力的多语言大型模型
日本语言能力开源项目指令微调模型HuggingfaceLlama 3.1 SwallowGithub大语言模型数据集
Llama 3.1 Swallow系列在增强日语和英语能力方面表现出色。基于Llama 3.1的模型结构,它不仅改进了对日语的处理能力,还保留了对英语的支持。利用包括日本网络、维基百科在内的语料,以2000亿个令牌进行训练,该模型在多个领域表现优异,包括文本生成、日英翻译和学术考试。不同的模型变体支持多种语言处理需求,提供灵活选择。
相关文章
YAYI 2: 多语言开源大语言模型的新突破
3 个月前
Firefly: 一站式大模型训练工具的全面解析
3 个月前
DecryptPrompt: 探索人工智能的前沿 - Prompt工程与大语言模型的综合指南
3 个月前
LESS: 一种创新的数据选择方法用于目标指令调优
3 个月前
H2O WizardLM:开源实现自动生成高质量指令数据集
3 个月前
从零开始构建迷你语言模型:一步步打造属于自己的AI助手
3 个月前
Otter: 一个基于OpenFlamingo的多模态AI模型
3 个月前
SEED-X: 多模态人工智能的革命性突破
3 个月前
本草模型: 基于中文医学知识的大语言模型指令微调
3 个月前