Logo

#指令跟随

LLM数据集:大语言模型训练的高质量数据集资源

2 个月前
Cover of LLM数据集:大语言模型训练的高质量数据集资源

WizardLM: 赋能大型预训练语言模型处理复杂指令的强大工具

2 个月前
Cover of WizardLM: 赋能大型预训练语言模型处理复杂指令的强大工具

LLaMA-Adapter:高效微调大语言模型的创新方法

2 个月前
Cover of LLaMA-Adapter:高效微调大语言模型的创新方法

BayLing: 突破语言屏障的人工智能新星

2 个月前
Cover of BayLing: 突破语言屏障的人工智能新星

相关项目

Project Cover
alpaca_farm
AlpacaFarm是一个人类反馈学习方法的仿真框架。它提供模拟成对反馈、自动评估和基准实现等功能,降低了指令跟随和对齐研究的成本。框架包含模拟偏好反馈、自动评估和参考方法实现等组件,旨在促进该领域的开放研究。
Project Cover
BayLing
BayLing是一个开源的多语言大规模语言模型,专注于跨语言对齐和指令遵循。该模型在英汉双语生成、指令执行和多轮交互方面表现优异,可在16GB显存的消费级GPU上运行。BayLing支持翻译、写作、创作和建议等多种任务,为用户提供多语言智能辅助。
Project Cover
WizardLM
WizardLM项目致力于增强大型预训练语言模型处理复杂指令的能力。通过创新训练方法,该项目使模型更好地理解和执行多步骤、高难度任务。WizardLM在编程、数学和通用对话等基准测试中表现卓越。项目开源多个不同规模的模型版本,为语言模型技术的研究与应用提供有力支持。
Project Cover
LLaMA-Adapter
LLaMA-Adapter是一种高效的大语言模型微调方法。通过在LLaMA模型中插入适配器,仅引入120万个可学习参数,1小时内即可将LLaMA转化为指令跟随模型。该方法提出零初始化注意力机制,稳定早期训练。LLaMA-Adapter支持多模态输入,拓展应用场景。与全量微调相比,在参数量和训练时间上具显著优势,同时保持相当性能。
Project Cover
AutoIF
AutoIF是一种创新的大语言模型指令遵循能力提升方法。它通过代码执行反馈自动生成和验证指令数据,结合指令增强、验证函数生成和交叉验证等技术合成高质量训练样本。实验结果显示,AutoIF能有效提升不同规模模型的指令遵循表现,为大语言模型指令微调提供了新的研究思路。
Project Cover
llm-datasets
LLM Datasets项目汇集了大语言模型微调所需的优质数据集、实用工具和核心概念。涵盖通用、数学逻辑、编程和对话等多个领域,项目详细阐述了高质量数据集的特征。为研究人员和开发者提供多样化的LLM微调数据资源,旨在促进模型性能提升。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号