Project Icon

Kandinsky-2

多功能AI驱动的图像生成与编辑工具

Kandinsky-2是一个开源的图像生成和编辑工具,采用CLIP图像编码器和ControlNet技术。该模型支持文本到图像生成、图像到图像转换、图像融合和图像修复等功能。Kandinsky-2能准确理解多语言文本输入,并在图像生成过程中提供精细控制。这个AI模型为创作者提供了多样化的图像处理选择,在保持高质量输出的同时,也具备良好的可定制性。

Kandinsky 2.2

在 Colab 中打开 — 推理示例

在 Colab 中打开 — 使用 LoRA 进行微调

描述:

Kandinsky 2.2 在其前身 Kandinsky 2.1 的基础上进行了实质性改进,引入了新的、更强大的图像编码器 CLIP-ViT-G 并支持 ControlNet。

将图像编码器更换为 CLIP-ViT-G 显著提高了模型生成更美观图片的能力,并增强了对文本的理解,从而提升了模型的整体性能。

添加 ControlNet 机制使模型能够有效控制图像生成过程。这导致输出更准确、更具视觉吸引力,并为文本引导的图像操作开辟了新的可能性。

架构细节:

  • 文本编码器 (XLM-Roberta-Large-Vit-L-14) - 560M
  • 扩散图像先验 — 1B
  • CLIP 图像编码器 (ViT-bigG-14-laion2B-39B-b160k) - 1.8B
  • 潜在扩散 U-Net - 1.22B
  • MoVQ 编码器/解码器 - 67M

检查点:

  • 先验:将文本嵌入映射到图像嵌入的先验扩散模型
  • 文本到图像 / 图像到图像:将图像嵌入映射到图像的解码扩散模型
  • 修复:将图像嵌入和带掩码图像映射到图像的解码扩散模型
  • ControlNet-深度:将图像嵌入和额外深度条件映射到图像的解码扩散模型

推理模式

如何使用:

查看 ./notebooks 文件夹中的 Jupyter 笔记本示例

1. 文本到图像

from kandinsky2 import get_kandinsky2
model = get_kandinsky2('cuda', task_type='text2img', model_version='2.2')
images = model.generate_text2img(
    "红色猫咪,4K 照片", 
    decoder_steps=50,
    batch_size=1, 
    h=1024,
    w=768,
)

Kandinsky 2.1

框架:PyTorch Huggingface 空间 在 Colab 中打开

Habr 文章

演示

pip install "git+https://github.com/ai-forever/Kandinsky-2.git"

模型架构:

Kandinsky 2.1 继承了 Dall-E 2 和潜在扩散的最佳实践,同时引入了一些新想法。

它使用 CLIP 模型作为文本和图像编码器,并在 CLIP 模态的潜在空间之间使用扩散图像先验(映射)。这种方法提高了模型的视觉性能,并为图像混合和文本引导的图像操作开辟了新的视野。

对于潜在空间的扩散映射,我们使用了一个具有 20 层、32 个头和 2048 隐藏大小的 transformer。

其他架构部分:

  • 文本编码器 (XLM-Roberta-Large-Vit-L-14) - 560M
  • 扩散图像先验 — 1B
  • CLIP 图像编码器 (ViT-L/14) - 427M
  • 潜在扩散 U-Net - 1.22B
  • MoVQ 编码器/解码器 - 67M

Kandinsky 2.1 在大规模图像-文本数据集 LAION HighRes 上进行了训练,并在我们的内部数据集上进行了微调。

如何使用:

查看 ./notebooks 文件夹中的 Jupyter 笔记本示例

1. 文本到图像

from kandinsky2 import get_kandinsky2
model = get_kandinsky2('cuda', task_type='text2img', model_version='2.1', use_flash_attention=False)
images = model.generate_text2img(
    "红色猫咪,4K 照片", 
    num_steps=100,
    batch_size=1, 
    guidance_scale=4,
    h=768, w=768,
    sampler='p_sampler', 
    prior_cf_scale=4,
    prior_steps="5"
)

提示:"爱因斯坦在对数图周围的太空中"

2. 图像融合

from kandinsky2 import get_kandinsky2
from PIL import Image
model = get_kandinsky2('cuda', task_type='text2img', model_version='2.1', use_flash_attention=False)
images_texts = ['红色猫咪', Image.open('img1.jpg'), Image.open('img2.jpg'), '一个男人']
weights = [0.25, 0.25, 0.25, 0.25]
images = model.mix_images(
    images_texts, 
    weights, 
    num_steps=150,
    batch_size=1, 
    guidance_scale=5,
    h=768, w=768,
    sampler='p_sampler', 
    prior_cf_scale=4,
    prior_steps="5"
)

3. 图像修复

from kandinsky2 import get_kandinsky2
from PIL import Image
import numpy as np

model = get_kandinsky2('cuda', task_type='inpainting', model_version='2.1', use_flash_attention=False)
init_image = Image.open('img.jpg')
mask = np.ones((768, 768), dtype=np.float32)
mask[:,:550] =  0
images = model.generate_inpainting(
    '男人 4K 照片', 
    init_image, 
    mask, 
    num_steps=150,
    batch_size=1, 
    guidance_scale=5,
    h=768, w=768,
    sampler='p_sampler', 
    prior_cf_scale=4,
    prior_steps="5"
)

Kandinsky 2.0

框架: PyTorch Huggingface 空间 在 Colab 中打开

Habr 文章

演示

pip install "git+https://github.com/ai-forever/Kandinsky-2.git"

模型架构:

这是一个潜在扩散模型,配备两个多语言文本编码器:

  • mCLIP-XLMR 560M 参数
  • mT5-encoder-small 146M 参数

这些编码器和多语言训练数据集揭示了真正的多语言文本到图像生成体验!

Kandinsky 2.0 在一个包含 10 亿个多语言样本的大型数据集上进行训练,其中包括我们用于训练 Kandinsky 的样本。

就扩散架构而言,Kandinsky 2.0 实现了一个拥有 12 亿参数的 UNet。

Kandinsky 2.0 架构概览:

使用方法:

请查看 ./notebooks 文件夹中的 Jupyter 笔记本示例

1. 文本生成图像

from kandinsky2 import get_kandinsky2

model = get_kandinsky2('cuda', task_type='text2img')
images = model.generate_text2img('红场上的泰迪熊', batch_size=4, h=512, w=512, num_steps=75, denoised_type='dynamic_threshold', dynamic_threshold_v=99.5, sampler='ddim_sampler', ddim_eta=0.05, guidance_scale=10)

提示词:"红场上的泰迪熊"

2. 图像修复

from kandinsky2 import get_kandinsky2
from PIL import Image
import numpy as np

model = get_kandinsky2('cuda', task_type='inpainting')
init_image = Image.open('image.jpg')
mask = np.ones((512, 512), dtype=np.float32)
mask[100:] =  0
images = model.generate_inpainting('穿红裙的女孩', init_image, mask, num_steps=50, denoised_type='dynamic_threshold', dynamic_threshold_v=99.5, sampler='ddim_sampler', ddim_eta=0.05, guidance_scale=10)

提示词:"穿红裙的女孩"

3. 图像转图像

from kandinsky2 import get_kandinsky2
from PIL import Image

model = get_kandinsky2('cuda', task_type='img2img')
init_image = Image.open('image.jpg')
images = model.generate_img2img('猫', init_image, strength=0.8, num_steps=50, denoised_type='dynamic_threshold', dynamic_threshold_v=99.5, sampler='ddim_sampler', ddim_eta=0.05, guidance_scale=10)

作者

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号