Project Icon

MDT

MDTv2图像合成模型:更快收敛和卓越性能

MDTv2是一种先进的深度学习图像合成模型,在ImageNet数据集上实现了1.58的FID分数,创造新的业界标准。该模型采用掩码潜在建模技术,提高了图像语义理解能力,学习速度比先前模型快10倍以上。MDTv2在图像生成质量和训练效率方面都有显著提升,为计算机视觉和人工智能领域带来了新的可能性。

Depth-Anything-V2-Large - 单目深度估计新突破:高精度细节与高效性能的完美平衡
Depth Anything V2GithubHuggingface图像处理开源项目模型深度估计神经网络计算机视觉
Depth-Anything-V2-Large是一款基于大规模数据训练的单目深度估计模型。该模型通过595K合成标记图像和62M+真实未标记图像的训练,在细节精度和鲁棒性方面超越了前代版本。与基于SD的模型相比,它不仅更加高效和轻量,处理速度提升了10倍,还在预训练基础上展现出优秀的微调能力。这一模型为计算机视觉领域提供了性能卓越的深度估计解决方案。
stable-diffusion-3.5-medium - MMDiT-X高效能文本到图像生成技术
GithubHuggingfaceQK正则化Stable Diffusion图像质量提升多模态扩散变压器开源项目文本生成图像模型
Stable Diffusion 3.5 Medium是一款MMDiT-X模型,提升文本到图像生成的图像质量和资源效率。通过多模态扩散变压器结合QK标准化技术,该模型在多分辨率生成和文本理解方面表现出色,适合设计、创作与研究领域,年收入低于100万美元的用户可免费使用。
sd-vae-ft-ema - 稳定扩散变分自编码器的增强版模型
GithubHuggingfaceStable Diffusion图像重建开源项目扩散模型机器学习模型自动编码器
sd-vae-ft-ema是一个基于LAION-Aesthetics和LAION-Humans数据集训练的稳定扩散变分自编码器。该模型在图像重建质量尤其是人脸细节方面优于原始VAE,具有更好的rFID、PSNR和SSIM指标表现,可作为扩散器工作流中的即插即用组件。
stable-diffusion-2-1-base - 基于稳定扩散技术的高质量文本到图像生成模型
GithubHuggingfaceStable Diffusion人工智能绘图开源项目文本生成图像模型深度学习计算机视觉
stable-diffusion-2-1-base是Stability AI开发的文本到图像生成模型,基于潜在扩散技术。该模型在大规模图像数据集上训练,可根据文本提示生成512x512分辨率的高质量图像。相比之前版本,2.1版本在图像质量和文本理解能力上有所提升。模型适用于艺术创作、设计辅助等场景,可通过Hugging Face Diffusers库轻松使用。
stable-diffusion-2-inpainting - 基于扩散模型的高分辨率图像生成和修复工具
GithubHuggingfaceStable Diffusion人工智能图像生成开源项目模型深度学习计算机视觉
stable-diffusion-2-inpainting是一个基于扩散模型的图像生成和修复工具。该模型能根据文本提示生成高质量图像,并支持高分辨率图像修复。它采用LAMA的掩码生成策略,结合掩码图像的VAE潜在表示作为额外条件。该模型在英语提示下效果最佳,适用于艺术创作、设计和研究等领域。然而,它也存在一些局限性,如无法生成可读文本,对复杂任务表现欠佳。使用时应注意避免生成有害或带有偏见的内容。
Imagen - 文字生成图片的AI技术
AI工具AI开发COCO FIDImagen扩散模型文本到图像模型训练热门语言模型
Imagen,一种先进的AI图片生成工具,利用深度语言理解和极致的图像真实性,实现从文字到图像的转换。此模型不仅在COCO数据集上刷新了技术记录,还通过高效的U-Net架构和强大的文本编码系统,优化了图文一致性和图像质量。鉴于潜在的社会影响和数据集偏差问题,当前未开放源代码或公共演示版本。
PixArt-XL-2-1024-MS - 快速训练的高性能文本到图像AI模型
AI模型GithubHuggingfacePixart-α图像生成开源项目文本生成图像模型深度学习
PixArt-XL-2-1024-MS是一个基于Transformer的文本到图像生成模型,采用纯Transformer块进行潜在扩散。该模型可直接生成1024px图像,训练效率高,仅用Stable Diffusion v1.5约10%的训练时间即达到可比性能。模型适用于艺术创作、教育工具开发等领域的研究,为探索高效文生图技术提供了新思路。
MIGC - 利用MIGC实现多实例文本生成图像
CVPR2024GithubMIGC多实例生成开源项目文本生成图像稳定扩散
MIGC项目的多实例生成控制器提升了文本生成图像的多样性和质量,包含COCO-MIG基准测试、在线Colab演示等资源。MIGC提升了属性控制,通过更换不同生成器权重,实现高质量和多样化图像生成。最新Consistent-MIG算法优化迭代编辑功能,保持未修改区域一致性并增强修改实例的一致性。此项目由浙江大学的ReLER实验室和华为监督。
Make-Your-Video - 结合文本和深度信息的智能视频生成模型
AI模型GithubMake-Your-Video开源项目深度学习视频生成计算机视觉
Make-Your-Video是一个结合文本和深度信息的视频生成模型。它继承了图像潜在扩散模型的丰富视觉概念,支持长视频推理。该模型可将真实场景和3D建模场景转化为视频,并支持视频重渲染。相比其他方法,Make-Your-Video在视觉质量和动作控制方面表现优异,为视频创作提供了新的可能性。
imagedream-ipmv-diffusers - 多视角扩散模型用于3D图像生成
3D生成GithubHuggingfaceMVDream-diffusers使用限制图像扩散开源项目模型
该项目是ImageDream模型在diffusers中的移植版本,展示了基于图像提示的多视角扩散技术在3D生成中的能力。用户可前往GitHub获得使用指南。由Wang及其团队发布于2023年的arXiv。请注意,模型禁止用于生成或传播可能引发敌对环境的图像,或传播可能会打扰、困扰或冒犯公众,以及涉及历史或当代偏见的内容。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号