Logo

#PEFT

LLM-FineTuning-Large-Language-Models学习资料汇总 - 大型语言模型微调技术与项目实践

1 个月前
Cover of LLM-FineTuning-Large-Language-Models学习资料汇总 - 大型语言模型微调技术与项目实践

PEFT学习资料汇总 - 参数高效微调入门指南

1 个月前
Cover of PEFT学习资料汇总 - 参数高效微调入门指南

Awesome Adapter Resources: 探索参数高效的自然语言处理技术

2 个月前
Cover of Awesome Adapter Resources: 探索参数高效的自然语言处理技术

Playground: 为作家打造的智能创作助手

2 个月前
Cover of Playground: 为作家打造的智能创作助手

LLM微调技术全面指南:方法、最佳实践与应用

2 个月前
Cover of LLM微调技术全面指南:方法、最佳实践与应用

LLM-Finetuning入门学习资料汇总 - 大模型微调技术实践指南

1 个月前
Cover of LLM-Finetuning入门学习资料汇总 - 大模型微调技术实践指南

Simple LLM Finetuner入门指南 - 基于LoRA方法的语言模型微调工具

1 个月前
Cover of Simple LLM Finetuner入门指南 - 基于LoRA方法的语言模型微调工具

Playground:为作家和开发者打造的强大文本编辑扩展

2 个月前
Cover of Playground:为作家和开发者打造的强大文本编辑扩展

LLM-Adapters:参数高效微调大语言模型的适配器家族

2 个月前
Cover of LLM-Adapters:参数高效微调大语言模型的适配器家族

PEFT: 高效参数微调方法助力大型语言模型

2 个月前
Cover of PEFT: 高效参数微调方法助力大型语言模型

相关项目

Project Cover
simple-llm-finetuner
Simple LLM Finetuner项目提供了初学者友好的界面,利用LoRA方法和PEFT库在常见的NVIDIA GPU上微调语言模型。用户可以轻松管理数据集、定制参数,并评估模型推理能力。支持在UI中粘贴数据集,提供参数调整和详细说明。尽管项目已停止维护,建议使用替代工具如LLaMA-Factory、unsloth或text-generation-webui。
Project Cover
peft
参数高效微调(PEFT)通过只调整少量额外参数来适配大规模预训练模型,大幅降低计算和存储成本,同时性能接近完全微调模型。PEFT与Transformers、Diffusers和Accelerate集成,支持多种下游任务的训练和推理。了解更多方法和优势,请访问官方文档和教程。
Project Cover
LLM-Finetuning
了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。
Project Cover
LLM-FineTuning-Large-Language-Models
本项目介绍了如何使用ORPO、QLoRA、GPTQ等技术对大型语言模型(LLM)进行微调,包含具体实例和代码片段。项目还提供与这些技术相关的YouTube视频链接,提供全面的学习资料。此外,项目还包含各类实用工具和技术说明,帮助用户更好地理解和应用这些前沿技术。适合有一定编程基础的研究人员和开发者参考。
Project Cover
relora
ReLoRA项目通过低秩更新实现高效深度学习训练,兼容Python 3.10+和PyTorch 2.0+,支持更大的微批次大小。用户可通过执行预处理和不同配置的训练脚本,达到高效分布式训练,并支持cosine重启调度和多GPU配置。项目涵盖了预热训练和ReLoRA重启,适用于各种规模的模型训练。
Project Cover
LLM-Adapters
LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。
Project Cover
awesome-adapter-resources
本项目汇集了大型预训练神经网络适配器方法的关键工具和论文。涵盖自然语言处理、计算机视觉和音频处理领域的适配器技术,包括方法、组合技术、分析评估和应用。提供框架工具链接和详细调查研究,是研究人员和从业者的重要参考资源。
Project Cover
Playground
该扩展集成了多项实用功能,包括多笔记本管理、快速指令语法和文本插入生成。此外,它还提供永久记忆、LoRA模型操作和令牌视图等高级特性,旨在优化文本生成和编辑流程,为创作者营造高效的工作环境。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号