S2ML生成器
更新日志
1.7版本
- 正在开发一个新的笔记本:Somewhere Diffusion。这个笔记本将结合三个过程:
-
- 从CLIP潜在空间中与文本提示相近的图像生成数据集
-
- 使用该模型或模型组合,通过扩散在合理的分辨率下生成图像
-
- 使用ESRGAN对该图像进行上采样
- 该笔记本的代码库位于:https://github.com/somewheresy/somewhere-diffusion
1.6.1版本
- 修复了Guided Diffusion模型的目录
- 小幅清理和修复
1.6版本
- 代码无变动。有人询问是否可以为我的免费工作给予小费。鉴于新的就业机会,我现在接受捐赠 -- 不是在这里,但我会匹配任何给予The Okra Project (https://www.artsbusinesscollaborative.org/fiscal-sponsorship/okra-project)的捐赠,每年最高5000美元。匹配捐赠将从2022年6月开始,并将追溯计算自本次更新日期起的任何捐赠。
1.5.4版本
- 修复了问题#9 https://github.com/justin-bennington/S2ML-Generators/issues/9,ESRGAN上采样不再错误转置图像颜色
- 在扩散方法中添加了启用梯度检查点的设置,可节省显存但计算图像需要更长时间(如果遇到内存问题或尝试加载大型模型时很有用)
- 删除了一些非正式文本
1.5.3版本
- 为新笔记本腾出空间,我正从S2ML图像生成器(原S2ML艺术生成器)分叉,代码库已更名为S2ML-Generators
- S2ML艺术生成器更名为S2ML图像生成器
- 敬请期待S2ML视频生成器
1.5.2版本
- CLIP引导的扩散方法现在允许可变数量的步骤
1.5.1版本
- 更名!由于此笔记本包含的方法不仅限于使用GAN(生成对抗网络),因此选择了新名称:S2ML艺术生成器!正在开发的未来工具只要利用机器学习,就会带有S2ML前缀,以构建S2ML生态系统。
1.5.0版本
2021年9月21日
- 移除ISR图像上采样,替换为ESRGAN实现
- 增加上采样文件夹中的图像或单个目标图像的功能
- 增加使用ffmpeg生成视频的选项,可使用默认输出或上采样图像序列({abs_root_path}/ESRGAN/results/目录)
- 修复一些markdown问题,删除旧笔记本中的不当措辞
- 增加删除所有生成输出的代码块,用于高级故障排除和整洁性
1.4.0版本
2021年9月4日
- 修复CLIP引导的扩散方法
- 为VQGAN+CLIP和扩散方法都公开了新的CLIP模型选择
- 移除多余的说明文本,为Wiki启动做准备
- 增加无论使用何种方法都可生成视频的功能
- 在"生成视频"代码块中公开了新参数
1.3.0版本
2021年8月30日
- 将更新日志移至README.md
- VQGAN+CLIP和CLIP引导的扩散代码块现在是分开的
- 参数和执行代码块合并为单个代码块
- 修复VQGAN+CLIP方法中潜在的"有趣度"错误
- 公开四个新的实验/高级参数,用于微调VQGAN+CLIP方法
- 在1.3.1版本中更新ffmpeg代码块以适用于CLIP引导的扩散方法,1.3.0版本开始修复此问题
1.2.3版本
2021年8月26日
- 错误修复
- 在更新后的笔记本顶部添加"VQGAN经典版"链接(旧版副本)
1.2.2版本
2021年8月23日
- 错误修复
1.2.1版本
2021年8月22日
- 修复临时文件系统未导入os的问题,导致不使用Google Drive时出错
- 移除Wikiart 1024数据集,因为托管提供商下线
- 修复ImageNet数据集以使用新的托管提供商
1.2.0版本
2021年8月21日
- 错误修复
1.1.2版本
2021年8月18日
- 从原始副本分叉笔记本
- 将Katherine Crowson的CLIP引导扩散方法集成为笔记本的次要模式
- 移除自动视频命名,改为将其作为参数公开