#指令微调
OctoPack: 基于指令微调的代码大语言模型
从零开始构建迷你语言模型:一步步打造属于自己的AI助手
Huatuo-Llama-Med-Chinese
本项目通过对LLaMA、Alpaca-Chinese、Bloom等大语言模型进行指令微调,提升其在医疗问答领域的效果。利用医学知识图谱和文献,结合ChatGPT API构建数据集,开源了包括活字和Bloom在内的多种微调模型。适用于智慧医疗,模型在心肌梗塞、肝胆管结石等疾病的诊断和治疗方案建议方面表现优异,支持个性化微调和应用。
Firefly
Firefly作为一个开源大模型训练工具,提供预训练、指令微调和DPO的全面解决方案。支持LoRA、QLoRA等高效训练技术,并涵盖多种主流大模型如Qwen2、Yi-1.5,特别适合显存和资源有限的环境。项目不仅开源多种数据集,还在Open LLM排行榜中展示了QLoRA训练的高效性,并与Unsloth合作,进一步优化了训练效率和显存使用。
DecryptPrompt
《DecryptPrompt》提供全面的LLM应用、训练框架、优化策略和技术指南。覆盖大模型比较、微调技术、开源资源及实操案例,助力用户掌握最新AI动态和前沿技术,尤其深度涉及agent指令微调和LLM应用设计。
LESS
LESS项目提供了一种数据选择方法,通过选择有影响力的数据来增强特定功能。该项目涵盖了安装要求、数据准备、数据选择和模型训练的详细步骤,并提供相应的脚本和指南。通过预热训练、构建梯度数据存储库、任务数据选择和最终训练四个步骤,提升模型在下游任务中的表现能力。利用Flan v2、COT、Dolly和Open Assistant等训练数据集,以及MMLU、TydiQA和BBH等评估数据集,优化特定任务的模型性能。
build_MiniLLM_from_scratch
该项目详细介绍了如何从零开始构建小规模参数的语言模型(LLM),经过预训练、指令微调、奖励模型和强化学习四个阶段。项目基于bert4torch训练框架,优化内存占用,并提供完整的训练日志以供复现。模型支持与transformers兼容,能够进行多轮对话。项目也开源了预训练语料和权重,方便用户下载和使用,提升了实用性与操作性。
h2o-wizardlm
H2o-wizardlm是一个开源项目,旨在从现有指令微调的LLM模型中自动生成高复杂度指令,适用于进一步微调。该项目基于Apache 2.0许可的模型和数据,支持输入指令微调的LLM和种子提示(未来支持文档语料库),输出为高复杂度的指令提示及其响应,无需违反Vicuna或ShareGPT的服务条款。
Otter
该项目结合了OpenFlamingo模型和MIMIC-IT数据集进行多模态指令调优,拥有280万条指令-响应对,支持图像和视频内容的精确理解与互动。该项目还包括OtterHD模型,提升高分辨率视觉输入的细粒度解释,并推出MagnifierBench评估基准测试模型的微小物体识别能力。公开的代码可用于训练和预训练,并支持GPT4V的评估和Flamingo架构的多任务处理。
SEED-X
SEED-X是一个多功能的多模态基础模型,经过指令微调后可应用于各种实际场景。该模型整合了多粒度的理解和生成能力,能够满足多样化的用户需求。SEED-X既可作为交互式设计工具生成和编辑图像,又能充当智能助手理解各种尺寸的图像并提供相关建议。项目已开源模型、指令微调代码和推理代码,同时提供在线演示。
YAYI
雅意大模型通过深度微调媒体宣传、舆情分析、公共安全等领域数据,提升了中文对话和领域分析能力。开源项目促进了中文预训练大模型社区的发展,支持全参数和LoRA微调,提供多轮对话和插件功能。基于高质量数据集训练,适用于中文多领域任务,具备优异的自然语言处理性能,持续优化安全性和拒识能力。