#指令跟随
alpaca_farm
AlpacaFarm是一个人类反馈学习方法的仿真框架。它提供模拟成对反馈、自动评估和基准实现等功能,降低了指令跟随和对齐研究的成本。框架包含模拟偏好反馈、自动评估和参考方法实现等组件,旨在促进该领域的开放研究。
BayLing
BayLing是一个开源的多语言大规模语言模型,专注于跨语言对齐和指令遵循。该模型在英汉双语生成、指令执行和多轮交互方面表现优异,可在16GB显存的消费级GPU上运行。BayLing支持翻译、写作、创作和建议等多种任务,为用户提供多语言智能辅助。
WizardLM
WizardLM项目致力于增强大型预训练语言模型处理复杂指令的能力。通过创新训练方法,该项目使模型更好地理解和执行多步骤、高难度任务。WizardLM在编程、数学和通用对话等基准测试中表现卓越。项目开源多个不同规模的模型版本,为语言模型技术的研究与应用提供有力支持。
LLaMA-Adapter
LLaMA-Adapter是一种高效的大语言模型微调方法。通过在LLaMA模型中插入适配器,仅引入120万个可学习参数,1小时内即可将LLaMA转化为指令跟随模型。该方法提出零初始化注意力机制,稳定早期训练。LLaMA-Adapter支持多模态输入,拓展应用场景。与全量微调相比,在参数量和训练时间上具显著优势,同时保持相当性能。
AutoIF
AutoIF是一种创新的大语言模型指令遵循能力提升方法。它通过代码执行反馈自动生成和验证指令数据,结合指令增强、验证函数生成和交叉验证等技术合成高质量训练样本。实验结果显示,AutoIF能有效提升不同规模模型的指令遵循表现,为大语言模型指令微调提供了新的研究思路。
llm-datasets
LLM Datasets项目汇集了大语言模型微调所需的优质数据集、实用工具和核心概念。涵盖通用、数学逻辑、编程和对话等多个领域,项目详细阐述了高质量数据集的特征。为研究人员和开发者提供多样化的LLM微调数据资源,旨在促进模型性能提升。
Qwen2.5-7B-Instruct-AWQ
Qwen2.5 增强版在知识获取、编程和数学能力上有显著提升,支持最大128K的长文本处理及29种语言,优化用于指令追踪和生成结构化数据,尤其适合聊天机器人应用。
llava-v1.6-vicuna-13b
LLaVA-v1.6是基于Vicuna-13b微调的开源多模态AI模型,通过大规模图文对和指令数据训练而成。该模型擅长学术视觉问答和通用图像理解,支持自然的图文交互。采用transformer架构,为计算机视觉和自然语言处理研究提供了强大的视觉语言处理工具。
Mistral-7B-Instruct-v0.3-GGUF
Mistral 7B Instruct v0.3是一款经过优化的指令跟随模型,新增功能调用支持进一步扩展应用范围,增强助理功能。此版本引入扩展词汇表和新的分词器,支持功能调用。模型由Mistral AI创建,GGUF量化由bartowski提供。提醒:本社区模型由第三方提供,用户需自行负责内容的准确和适用性。