#PEFT

Simple LLM Finetuner: 一个用于微调大型语言模型的简单界面

3 个月前
Cover of Simple LLM Finetuner: 一个用于微调大型语言模型的简单界面

Simple LLM Finetuner: 一个用于大型语言模型微调的简易界面

3 个月前
Cover of Simple LLM Finetuner: 一个用于大型语言模型微调的简易界面

PEFT: 高效参数微调方法助力大型语言模型

3 个月前
Cover of PEFT: 高效参数微调方法助力大型语言模型

LLM微调技术全面指南:方法、最佳实践与应用

3 个月前
Cover of LLM微调技术全面指南:方法、最佳实践与应用

LLM-Adapters:参数高效微调大语言模型的适配器家族

3 个月前
Cover of LLM-Adapters:参数高效微调大语言模型的适配器家族

Playground: 为作家打造的智能创作助手

3 个月前
Cover of Playground: 为作家打造的智能创作助手

Playground:为作家和开发者打造的强大文本编辑扩展

3 个月前
Cover of Playground:为作家和开发者打造的强大文本编辑扩展

Awesome Adapter Resources: 探索参数高效的自然语言处理技术

3 个月前
Cover of Awesome Adapter Resources: 探索参数高效的自然语言处理技术

Simple LLM Finetuner入门指南 - 基于LoRA方法的语言模型微调工具

2 个月前
Cover of Simple LLM Finetuner入门指南 - 基于LoRA方法的语言模型微调工具

PEFT学习资料汇总 - 参数高效微调入门指南

2 个月前
Cover of PEFT学习资料汇总 - 参数高效微调入门指南
相关项目
Project Cover

simple-llm-finetuner

Simple LLM Finetuner项目提供了初学者友好的界面,利用LoRA方法和PEFT库在常见的NVIDIA GPU上微调语言模型。用户可以轻松管理数据集、定制参数,并评估模型推理能力。支持在UI中粘贴数据集,提供参数调整和详细说明。尽管项目已停止维护,建议使用替代工具如LLaMA-Factory、unsloth或text-generation-webui。

Project Cover

peft

参数高效微调(PEFT)通过只调整少量额外参数来适配大规模预训练模型,大幅降低计算和存储成本,同时性能接近完全微调模型。PEFT与Transformers、Diffusers和Accelerate集成,支持多种下游任务的训练和推理。了解更多方法和优势,请访问官方文档和教程。

Project Cover

LLM-Finetuning

了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。

Project Cover

LLM-FineTuning-Large-Language-Models

本项目介绍了如何使用ORPO、QLoRA、GPTQ等技术对大型语言模型(LLM)进行微调,包含具体实例和代码片段。项目还提供与这些技术相关的YouTube视频链接,提供全面的学习资料。此外,项目还包含各类实用工具和技术说明,帮助用户更好地理解和应用这些前沿技术。适合有一定编程基础的研究人员和开发者参考。

Project Cover

relora

ReLoRA项目通过低秩更新实现高效深度学习训练,兼容Python 3.10+和PyTorch 2.0+,支持更大的微批次大小。用户可通过执行预处理和不同配置的训练脚本,达到高效分布式训练,并支持cosine重启调度和多GPU配置。项目涵盖了预热训练和ReLoRA重启,适用于各种规模的模型训练。

Project Cover

LLM-Adapters

LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。

Project Cover

awesome-adapter-resources

本项目汇集了大型预训练神经网络适配器方法的关键工具和论文。涵盖自然语言处理、计算机视觉和音频处理领域的适配器技术,包括方法、组合技术、分析评估和应用。提供框架工具链接和详细调查研究,是研究人员和从业者的重要参考资源。

Project Cover

Playground

该扩展集成了多项实用功能,包括多笔记本管理、快速指令语法和文本插入生成。此外,它还提供永久记忆、LoRA模型操作和令牌视图等高级特性,旨在优化文本生成和编辑流程,为创作者营造高效的工作环境。

Project Cover

task-13-microsoft-Phi-3-mini-4k-instruct

本项目介绍使用PEFT库对微软Phi-3.5 mini指令模型进行微调和部署的方法。内容涵盖模型详情、应用场景、潜在风险和局限性等关键信息,以及训练细节、评估方法和环境影响等技术规格。这是一个面向开发者的实用指南,有助于快速理解和应用该模型。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号