Logo

#LoRA

Logo of LoRA
LoRA
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
Logo of LLM-Finetuning
LLM-Finetuning
了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。
Logo of ChatGenTitle
ChatGenTitle
ChatGenTitle是一个使用LoRA微调技术基于百万arXiv论文数据微调LLaMA模型的开源论文标题生成工具。提供有效支持以便科研人员高效生成论文标题,所有代码和模型权重开源供本地部署使用。
Logo of Vicuna-LoRA-RLHF-PyTorch
Vicuna-LoRA-RLHF-PyTorch
本文详述如何在普通硬件上优化Vicuna语言模型,包括环境配置、监督微调、合并PEFT适配器、训练奖励模型和PPO微调等步骤,适合中文技术人员使用。
Logo of LyCORIS
LyCORIS
LyCORIS项目提供了一系列针对Stable Diffusion的高效参数调优算法,包括LoRA、LoHa、LoKr和DyLoRA等。项目支持多种接口(如ComfyUI和InvokeAI)和训练方案(如kohya-ss和Naifu-Diffusion),并能与PyTorch模块无缝整合。通过不同算法的比较,LyCORIS在保真度、灵活性和训练速度上表现出色。用户可以通过简便的pip安装,探索多样的网络配置和训练方式,实现图像生成的定制化。
Logo of x-flux
x-flux
该项目为Flux图像生成模型提供LoRA和ControlNet微调脚本。使用DeepSpeed实现高效训练,并提供预训练检查点。包含详细的训练和推理指南,以及低内存模式和加速配置示例。项目计划未来发布更多ControlNet权重模型和IP-Adapters。
Logo of B-LoRA
B-LoRA
B-LoRA是一种创新的图像处理技术,结合Stable Diffusion XL和Low-Rank Adaptation,实现单一输入图像的风格与内容隐式分离。这种方法支持图像风格迁移、文本引导的图像风格化和一致性风格生成等多样化应用。B-LoRA为图像编辑和创意设计领域提供了新的可能性,能够有效地处理和转换图像的视觉元素。
Logo of ai-toolkit
ai-toolkit
AI-toolkit是一款功能丰富的AI模型工具集,包含FLUX.1训练、LoRA提取和模型合并等功能。它还支持批量图像生成、LoRA权重调整和滑块训练等高级特性,并提供扩展系统供用户自定义功能。这个工具集主要适用于24GB及以上显存的GPU,为AI模型开发者和研究人员提供灵活高效的解决方案。
Logo of sliders
sliders
Concept Sliders是一个开源项目,为扩散模型提供精确控制的LoRA适配器。通过滑块界面,用户可以微调生成图像的属性,如年龄和表情。项目支持多个Stable Diffusion版本(v1.4、v2.1和XL),提供文本和图像概念滑块的训练脚本,以及实时演示和真实图像编辑功能。Concept Sliders为AI图像生成带来了新的精确控制方法,GitHub上可查看完整项目详情。
Logo of LECO
LECO
LECO是一个基于低秩适应技术的开源项目,专注于扩散模型中概念的擦除、强调和替换。该项目支持多种预训练模型,提供灵活的配置选项,并可在不同GPU平台上运行。通过精心设计的提示词和LoRA权重,LECO不仅可以擦除概念,还能进行概念调整。这为研究人员和开发者提供了探索和改进AI生成模型概念控制能力的有力工具。
Logo of BLoRA
BLoRA
BLoRA项目开发了一种新技术,通过在同一批次中处理多个LoRA模型的推理来提高GPU利用率。该技术支持同时加载多个LoRA适配器,并在单一基础模型上进行并行推理。BLoRA不仅优化了计算效率,还为开发者提供了在不同任务间灵活切换模型行为的工具。这一简单而直观的实现为大规模语言模型的应用创造了新机会。
Logo of simple-llm-finetuner
simple-llm-finetuner
Simple LLM Finetuner项目提供了初学者友好的界面,利用LoRA方法和PEFT库在常见的NVIDIA GPU上微调语言模型。用户可以轻松管理数据集、定制参数,并评估模型推理能力。支持在UI中粘贴数据集,提供参数调整和详细说明。尽管项目已停止维护,建议使用替代工具如LLaMA-Factory、unsloth或text-generation-webui。
Logo of punica
punica
Punica采用分段聚集矩阵-向量乘法(SGMV)技术,使多个LoRA微调模型在单个预训练模型上高效运行,仅增加1%的存储和内存开销。相比其他系统,Punica在各种LoRA模型请求下的文本生成吞吐量提升至12倍,适用于不同版本的CUDA和Python,支持二进制包和源码构建。
Logo of unit-minions
unit-minions
了解'unit-minions'如何利用LoRA模型进行自主训练,以显著提升软件开发周期中的AI辅助效能。项目内容包括完整的训练教程、操作视频以及代码实战演示,详细呈现从需求分析到代码生成的自动化全过程。通过LLaMA和ChatGLM LoRA模型,有效支持代码辅助、测试和需求详细化,旨在提供科学的工具优化工程师的工作流程,提升开发效率。
Logo of llama-trl
llama-trl
本项目LLaMA-TRL通过PPO和LoRA技术进行大规模语言模型的微调,采用TRL(变压器强化学习)和PEFT(参数高效微调)方法。本文详细介绍了从安装依赖到具体实现的步骤,包括监督微调、奖励模型训练和PPO微调,助力开发者显著提升模型性能和任务适应能力。
Logo of Text-To-Video-Finetuning
Text-To-Video-Finetuning
Text-To-Video-Finetuning项目使用Diffusers微调ModelScope的文本生成视频模型,提供详尽的安装、配置和训练指南。主要更新包括LoRA训练、模型格式转换和Torch 2.0支持。项目现已归档,相关资源及支持文件仍可用。建议关注@damo-vilab的新实现,以体验全面的视频扩散微调功能。支持多种模型训练与推断,适用于VRAM限制设备,模块化设计方便定制与扩展。
Logo of sd-scripts
sd-scripts
sd-scripts是一个专为Stable Diffusion模型开发的脚本库,集成了多种训练方法如DreamBooth、微调、LoRA和Textual Inversion。此外,它还提供了图像生成和模型转换功能。该项目包含训练脚本、数据准备工具和配置选项,有助于优化AI艺术创作流程。
Logo of lora-scripts
lora-scripts
SD-Trainer为Stable Diffusion模型训练提供了全面解决方案。这个开源项目整合了图形界面、一键式环境配置和多种训练脚本,支持LoRA和Dreambooth等技术。通过WebUI,用户可以轻松管理训练流程,使用Tensorboard跟踪进度,并借助标签编辑器优化数据集。SD-Trainer简化了模型训练过程,让创作者和开发者能够更高效地定制Stable Diffusion模型。
Logo of MoRA
MoRA
MoRA是一种针对大型语言模型的参数高效微调技术,利用高阶低秩更新实现高效训练。该方法适用于数学推理、预训练等多种任务,并与LoRA等技术兼容。MoRA提供多种更新类型和目标模块配置,满足不同研究需求。项目包含实现指南和示例代码,便于快速应用。
Logo of LoftQ
LoftQ
LoftQ是一种为大型语言模型设计的量化微调方法。它通过寻找最佳的量化LoRA初始化,实现有限GPU资源下的高效模型微调。LoftQ支持LLAMA、Falcon、Mistral等主流模型,提供相关工具和示例代码。在WikiText-2和GSM8K等任务上,LoftQ展现出优秀性能,为低资源环境中的LLM应用开发创造了新可能。
Logo of TCD
TCD
TCD是一种创新的蒸馏技术,可将预训练扩散模型的知识提炼为高效的少步采样器。该技术具有灵活的NFE、优异的生成质量、可调节的细节程度和广泛的适用性。TCD无需对抗训练即可实现高质量的少步生成,有效避免了模式崩溃问题。项目开源了推理代码和基于SDXL Base 1.0蒸馏的TCD-SDXL模型,可与多种现有模型和技术无缝集成。
Logo of flash-diffusion
flash-diffusion
Flash Diffusion是一种用于加速预训练扩散模型图像生成的蒸馏方法。该技术高效、快速、通用且兼容LoRA,在COCO数据集上实现了少步骤图像生成的先进性能。Flash Diffusion只需几小时GPU训练时间和较少可训练参数,适用于文本生成图像、图像修复、换脸和超分辨率等多种任务。它支持UNet和DiT等不同骨干网络,能够显著减少采样步骤,同时保持高质量的图像生成效果。
Logo of peft
peft
参数高效微调(PEFT)通过只调整少量额外参数来适配大规模预训练模型,大幅降低计算和存储成本,同时性能接近完全微调模型。PEFT与Transformers、Diffusers和Accelerate集成,支持多种下游任务的训练和推理。了解更多方法和优势,请访问官方文档和教程。
Logo of Stable-Diffusion
Stable-Diffusion
探索Dr. Furkan Gözükara领导的Stable Diffusion项目。通过全面的高级教程视频,涵盖自动化Web UI安装至模型训练,与我们一起从基础到专家,深入理解并运用Stable Diffusion技术。包含Google Colab和Automatic1111 Web UI的实操演示,适合所有技术爱好者。
Logo of dora-from-scratch
dora-from-scratch
该项目提供了LoRA和DoRA技术的从头实现资料,作为相关文章的补充。内容涵盖关键技术细节和应用案例,帮助更好地理解和应用这些技术。
Logo of Real-Time-Latent-Consistency-Model
Real-Time-Latent-Consistency-Model
此项目展示了使用Diffusers进行图像转换的实时潜在一致性模型(LCM),支持img2img、txt2img、ControlNet等多种管道。需要CUDA和Python 3.10等环境支持,提供详细的安装指南和使用示例。LCM + LoRAs可以在极少步骤内完成推理,加快处理速度。项目支持Docker部署,并提供不同平台的实时演示链接。
Logo of lora
lora
该项目使用低秩自适应技术进行快速稳定扩散模型微调,比dreambooth方法快两倍,支持inpainting,并且生成非常小的模型文件(1MB~6MB),便于共享和下载。兼容diffusers库,提供多向量核心调优反演功能,并实现更好的性能。项目集成了Huggingface Spaces,增加了LoRA合并、Resnet应用和转换脚本功能。通过仅微调模型的残差,该方法显著缩小模型大小,同时保持高保真度,适用于需要快速高效微调的用户。
Logo of mistral-finetune
mistral-finetune
mistral-finetune是一个基于LoRA技术的轻量级框架,通过仅训练1-2%的额外权重来实现Mistral模型的高效微调。该框架支持多GPU单节点训练,适合A100或H100 GPU使用。它提供简化的数据格式要求和验证工具,支持指令跟随和函数调用等多种训练模式,适用于各类微调需求。
Logo of kohya_ss
kohya_ss
kohya_ss是一个开源的Stable Diffusion模型训练工具,提供图形用户界面。用户可以通过界面设置训练参数,生成所需的命令行指令。支持多个操作系统,具备LoRA训练和样本图像生成等功能。该工具简化了Stable Diffusion模型的自定义训练流程,有助于AI图像生成。
Logo of ComfyUI-TCD
ComfyUI-TCD
ComfyUI-TCD是ComfyUI的自定义节点,实现了TCD论文中提出的高效图像生成采样器。它不仅能以较少采样步骤生成清晰细节,还支持通过参数调整控制图像细节丰富度。项目包含示例工作流程和兼容LoRA模型,有助于快速掌握并获得高质量图像生成结果。
Logo of Playground
Playground
该扩展集成了多项实用功能,包括多笔记本管理、快速指令语法和文本插入生成。此外,它还提供永久记忆、LoRA模型操作和令牌视图等高级特性,旨在优化文本生成和编辑流程,为创作者营造高效的工作环境。
Logo of textgen
textgen
TextGen实现了LLaMA、ChatGLM、GPT2等多种文本生成模型。该开源库支持大模型LoRA微调训练和高效推理,还包含UDA、Seq2Seq等经典生成模型。TextGen提供多个预训练模型,可用于对话生成、文本扩增、翻译等任务。项目开箱即用,便于研究人员和开发者快速构建文本生成应用。
Logo of SAMed
SAMed
SAMed是一种基于Segment Anything Model的医学图像分割方法,通过低秩适应微调策略优化SAM模型。在Synapse多器官分割数据集上,SAMed达到81.88 DSC和20.64 HD的性能。由于仅更新部分参数,SAMed具有低部署和存储成本的优势。研究团队还推出了性能更高的SAMed_h版本,为医学影像分析提供了新的解决方案。
Logo of xTuring
xTuring
xTuring是一款高效、简单的开源LLM微调平台,支持Mistral、LLaMA、GPT-J等多种模型。用户可通过直观界面在本地或私有云中微调模型,保障数据隐私。平台支持数据预处理、多GPU扩展、以及INT4和LoRA等内存高效的微调方法,并提供多种模型评估工具。最新功能涵盖LLaMA 2集成、CPU推理优化和批量处理。
Logo of LongLoRA
LongLoRA
LongLoRA项目开发了一种高效微调方法,处理大型长上下文语言模型,涵盖了从7B至70B的各种模型规模和LongAlpaca-12k实验性数据集。项目支持多种微调方式,在基凊测试中验证了模型性能,技术可应用于多种NLP任务,助力复杂语言处理。实现显著性能优势,为企业和研究人员在从机器翻译到自动摘要等NLP任务中提供了有效的解决方案。
Logo of LLMtuner
LLMtuner
LLMTuner 提供类 scikit-learn 接口,让用户便捷微调如 Llama、Whisper 等大型语言模型。通过 LoRA 和 QLoRA 等技术实现高效微调,内置推理功能和一键启动的交互式 UI,简化模型展示和共享。此外,LLMTuner 还支持未来在 AWS 和 GCP 等平台上的部署。欢迎加入 PromptsLab 社区,探索和讨论最新的开源模型调优技术。
Logo of sd-webui-text2video
sd-webui-text2video
基于Auto1111的webui依赖,该扩展实现了ModelScope和VideoCrafter等text2video模型,无需登录即可使用。要求至少6GB的VRAM,支持不同帧数和分辨率的视频生成。项目包含多次更新,新增功能如VAE设置、提示权重和WebAPI,并支持LoRA训练。提供详细的模型下载指南,并欢迎社区的贡献与支持。
Logo of LLM-Adapters
LLM-Adapters
LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。
Logo of HCP-Diffusion
HCP-Diffusion
HCP-Diffusion是基于Diffusers库开发的Stable Diffusion模型工具集。它整合了多种文本到图像生成的训练方法,包括Prompt-tuning和Textual Inversion等。该工具集引入了DreamArtist++技术,支持一次性文本到图像生成。HCP-Diffusion提供层级LoRA、模型集成和自定义优化器等功能,为AI研究和开发提供全面的模型训练与推理支持。
Logo of llm-finetuning
llm-finetuning
这个开源项目整合了Modal和axolotl,为大语言模型微调提供了一个高效框架。它采用Deepspeed ZeRO、LoRA适配器和Flash Attention等先进技术,实现了高性能的模型训练。该框架支持云端部署,简化了资源管理流程,并可灵活适配不同模型和数据集。项目还提供了全面的配置说明和使用指南,方便开发者快速上手和定制化应用。
Logo of Chinese-Vicuna
Chinese-Vicuna
Chinese-Vicuna项目旨在低资源环境下训练中文LLaMA模型。该方案可在单个RTX-2080TI上进行指令微调,在RTX-3090上实现长上下文多轮对话。具有参数效率高、显卡友好和易部署等特点,支持7B和13B模型微调及垂直领域应用。项目提供完整的训练、推理和部署代码,以及多种优化工具。
Logo of DreamLook.ai
DreamLook.ai
DreamLook.ai是一个专业的AI图像生成平台,提供Stable Diffusion模型的快速fine-tuning服务。平台可在数分钟内完成模型训练,速度是传统方法的2.5倍,每日可处理数千次训练。支持SD1.5和SDXL模型的全模型fine-tuning。平台提供强大的API接口,解决GPU资源问题。此外,还有多种价格套餐可选,适应不同需求。
Logo of ChatGLM-Tuning
ChatGLM-Tuning
ChatGLM-Tuning项目是一个基于ChatGLM-6B和LoRA技术的语言模型微调解决方案。该项目包含数据预处理、模型训练和推理功能,支持Alpaca数据集。它提供预训练LoRA模型,并计划引入中文数据和RLHF技术。这一方案适用于16GB以上显存的GPU环境,为开发者提供了一种经济高效的大型语言模型定制途径。
Logo of lora-svc
lora-svc
lora-svc是一个开源的歌声转换系统,集成了OpenAI的Whisper、Nvidia的BigVGAN和Microsoft的Adapter技术。该项目利用多语言语音识别、反混叠语音生成和高效微调等技术,实现高质量的声音转换。lora-svc提供完整的数据处理、模型训练和推理流程,支持自定义训练和灵活推理,适合研究声音转换技术的开发者和研究人员使用。