#指令调优
Aurora - 通过指令调优激活 Mixtral-8x7B 稀疏专家混合体的中文聊天功能
AuroraMixtral-8x7B指令调优语言模型中文对话能力Github开源项目
Aurora项目通过整合三大中文数据集,提升了Mixtral-8x7B稀疏专家模型的中文对话能力。通过数据预处理和指令微调,该模型在C-Eval、MMLU和CMMLU基准测试中表现出色。这项研究首次在稀疏专家模型上应用指令微调,提升了模型的架构能力,特别是在零样本任务中表现卓越。
FinGPT - 开源金融大模型FinGPT,快速适应市场变化
FinGPT金融大语言模型情感分析数据集指令调优Github开源项目
FinGPT项目提供开源金融大语言模型,重点解决金融行业的高训练成本和频繁更新需求。利用RLHF技术,实现了金融数据的快速更新和轻量级适配,并降低微调费用。FinGPT-Forecaster和多任务情感分析模型的性能超过GPT-4,展现出在金融预测和情感分析方面的强大能力。开源平台和丰富的数据集使开发者能够轻松再现和应用这些先进模型。
deita - 自动数据选择工具助力大语言模型指令调优
Deita指令调优数据选择语言模型开源项目Github
Deita是一个开源项目,为大型语言模型的指令调优提供自动数据选择工具。项目包含开源工具包、高质量轻量级数据集和高效训练模型。Deita模型使用仅十分之一的指令调优数据,就能达到其他先进聊天模型的性能水平。项目提供全面评估结果,展示了在多项基准测试中的表现。
awesome-chatgpt-dataset - 综合性AI对话数据集资源助力自定义语言模型训练
ChatGPT数据集语言模型训练指令调优Github开源项目
awesome-chatgpt-dataset项目汇集了多样化的人工智能对话数据集资源。该项目囊括了不同规模、语言和领域的高质量指令数据,范围从数千到数百万条不等,涵盖多语言、代码生成、视觉对话等多个方面。这些数据集为研究人员和开发者提供了训练和优化大型语言模型的重要素材,有助于推动更智能、更多元化的AI对话系统的发展。
txtinstruct - 开源框架简化指令调优模型开发
txtinstruct指令调优数据集模型训练开源框架Github开源项目
txtinstruct是一个开源的指令调优模型训练框架,支持开放数据和模型,可与自有数据集成。它旨在解决指令数据集和大型语言模型许可不明确的问题,便于构建个性化指令数据集和模型。基于Python 3.8+和txtai构建,txtinstruct提供简便的安装方法和丰富示例,方便用户快速开发指令调优模型。
LongForm - 反向指令法优化长文本生成模型
LongForm指令调优自然语言处理长文本生成语言模型Github开源项目
LongForm项目开发了一种反向指令方法,利用多样化语料库创建指令数据集。该项目发布了LongForm-C数据集和多个预训练模型,在长文本生成任务中展现出优异性能。研究表明,LongForm模型不仅提升了自然语言生成能力,还在语言理解任务中取得了显著进展。尽管如此,该模型在结构化预测任务和幻觉问题方面仍存在一定局限性。项目采用MIT许可证,并严格遵守相关数据和模型的使用限制。
dolly-v2-12b - Databricks开源商用语言模型
指令调优dolly-v2-12b大语言模型HuggingfaceGithub开源项目性能限制模型数据集
dolly-v2-12b由Databricks开发,基于Pythia-12b构建,是一款为商业用途优化的大规模指令遵循语言模型。通过15000条指令/响应数据库微调,展示其在多领域应用中的潜力,如信息提取和问答系统。同时,提供更小的dolly-v2-7b和dolly-v2-3b版本以适应不同需求。
Meta-Llama-3.1-8B-Instruct-GGUF - 多语言大型语言模型的量化GGUF版本
Llama 3模型量化指令调优开源项目HuggingfaceGithub大语言模型多语言
Meta Llama 3.1 8B Instruct模型的GGUF量化版本是一个多语言大型语言模型,经过指令调优,适用于多语言对话场景。该项目提供多种量化版本,从Q2_K到f16不等,文件大小范围为3.18GB至16.07GB,可满足不同硬件配置需求。这些量化版本使得模型能够在各种计算资源条件下运行,提高了模型的可访问性和实用性。
instructblip-vicuna-7b - InstructBLIP:指令微调的通用视觉语言模型
模型指令调优开源项目HuggingfaceVicuna-7bGithubInstructBLIP图像描述视觉语言模型
InstructBLIP-Vicuna-7b是一个基于指令微调的视觉语言模型,以Vicuna-7b为基础语言模型。作为BLIP-2的升级版,该模型旨在实现通用视觉语言处理。它能够执行图像描述、视觉问答等多种任务,展现出卓越的跨模态理解能力。开发者可通过Python接口轻松调用模型,实现图像分析和文本生成。InstructBLIP代表了计算机视觉与自然语言处理融合的最新进展,为多模态AI应用提供了新的可能性。
llava-v1.6-mistral-7b - LLaVA-v1.6:融合图像与文本理解的开源多模态AI模型
模型HuggingfaceLLaVAGithub图像文本大语言模型指令调优开源项目多模态
LLaVA-v1.6-Mistral-7B是一个基于Mistral-7B-Instruct-v0.2的开源多模态AI模型。这个模型通过大规模多模态指令数据微调,能同时处理图像和文本输入。2023年12月发布的LLaVA-v1.6-Mistral-7B主要应用于多模态模型和AI对话系统研究。该模型在12个评估基准上表现优异,涵盖5个学术视觉问答任务和7个针对指令理解的最新多模态模型基准。
Qwen2.5-72B-Instruct-GPTQ-Int8 - 支持多语种和长文本处理的先进AI模型
指令调优大语言模型HuggingfaceGithub开源项目模型Qwen2.5多语言支持长文本处理
Qwen2.5的最新版通过改进知识、编码和数学能力,支持包括中文在内的29种语言,能够处理长文本并生成超过8K字符的文本。此72B参数的8位量化模型在指令遵循和结构化输出生成上有显著提升,有助于Chatbot角色扮演与多样化提示的实现。
Qwen2.5-72B-Instruct-GGUF - 新一代多语言模型,提升指令理解与长文本处理
长上下文支持Qwen多语言支持Github开源项目指令调优模型语言模型Huggingface
Qwen2.5系列模型通过改进的专家模型,增强编码和数学性能,支持29种语言,提供最长128K的上下文处理与8K tokens的生成能力。其提升的指令跟随与结构化数据生成能力适合多样化系统提示,使聊天机器人更准确。72B模型采用GGUF格式和现代架构技术,提供流畅对话体验。
CodeLlama-7B-Instruct-GPTQ - 高性能代码编程助手 支持多种量化参数的GPU推理
CodeLlamaHuggingface指令调优Meta代码生成Github模型开源项目机器学习
CodeLlama-7B-Instruct模型的GPTQ量化版本由TheBloke优化,提供4-bit和8-bit多种量化参数组合。模型支持代码补全、填充和指令对话,可通过Python或text-generation-webui部署。经AutoGPTQ验证,兼容ExLlama和Hugging Face TGI等推理框架,适用于不同硬件环境和性能需求。
Qwen2.5-32B-Instruct-GPTQ-Int4 - 支持多语言和长文本生成的大语言模型
指令调优Github开源项目Qwen2.5多语言支持自然语言处理Huggingface长上下文支持模型
Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。
Qwen2-1.5B-Instruct-GGUF - Qwen2提供出色的多语言支持与兼容性
Transformer架构多语言能力指令调优模型Qwen2Github开源项目大语言模型Huggingface
Qwen2系列涵盖基础及指令微调语言模型,参数规模从0.5亿到72亿,具有优秀的多语言、编码及推理能力。1.5B版本展示了卓越的语言理解与生成能力,可媲美专有模型。本地可通过llama.cpp运行,并兼容OpenAI API以简便方式访问。多种模式与量化选项,适应不同需求与应用场景。
相关文章