热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Pivotal Tuning
lora - 使用低秩自适应技术进行快速稳定扩散模型微调
LoRA
Stable Diffusion
Dreambooth
Huggingface
Pivotal Tuning
Github
开源项目
该项目使用低秩自适应技术进行快速稳定扩散模型微调,比dreambooth方法快两倍,支持inpainting,并且生成非常小的模型文件(1MB~6MB),便于共享和下载。兼容diffusers库,提供多向量核心调优反演功能,并实现更好的性能。项目集成了Huggingface Spaces,增加了LoRA合并、Resnet应用和转换脚本功能。通过仅微调模型的残差,该方法显著缩小模型大小,同时保持高保真度,适用于需要快速高效微调的用户。
1
1
相关文章
LoRA: 大型语言模型的低秩适应方法
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号