Project Icon

cond-image-leakage

改进图像到视频扩散模型中的条件图像依赖问题

该研究揭示并解决了图像到视频扩散模型中的条件图像依赖问题。研究团队提出了适用于DynamiCrafter、SVD和VideoCrafter1等多种模型的即插即用推理和训练策略。这些策略减轻了模型对条件图像的过度依赖,增强了生成视频的动态效果。项目开源的代码、模型和演示为图像到视频生成研究提供了重要参考。

rcg - RCG框架实现突破性无条件图像生成性能
GithubPyTorchRCG图像生成开源项目神经网络自监督学习
RCG是一种创新的自监督图像生成框架,在ImageNet 256x256数据集上达到了无条件图像生成的最佳性能。该框架缩小了无条件和有条件图像生成之间的性能差距。项目提供基于PyTorch的GPU实现,包含表示扩散模型(RDM)以及MAGE、DiT、ADM和LDM等多种像素生成器的训练和评估代码。同时提供预训练模型和可视化工具,便于研究人员复现和拓展相关工作。
imaginAIry - 探索图像和视频的稳定扩散与AI生成
AI绘图GithubImaginAIry图像处理开源项目热门稳定扩散视频视频生成
imaginAIry是一个先进的AI工具,支持生成高稳定性的图像和视频。项目适用于Linux和macOS操作系统,支持Nvidia GPUs,可通过Python轻松集成。它集成了最新的视频帧插值技术和多种控制模式,如深度图、正常图和控制网图等。此外,imaginAIry还引入了视频输出支持多种格式,如MP4、WebP和GIF,用户可按需生成高质量媒体内容。
CV-VAE - 兼容预训练模型的视频生成技术
CV-VAEGithubVAE兼容性开源项目潜在空间视频生成
CV-VAE是一种视频变分自编码器,专为潜在生成视频模型设计。它与预训练图像和视频模型(如SD 2.1和SVD)兼容,用于视频重建和生成。项目提供代码实现和预训练模型权重,支持视频重建和文本到视频转换。CV-VAE为视频生成技术研究提供了新的工具和方向。
stable-video-diffusion-img2vid-xt-1-1 - 高性能图片转视频生成模型,支持1024x576像素视频制作
GithubHuggingfaceStable Video Diffusion人工智能模型商业授权图像转视频开源项目模型生成式AI
Stable Video Diffusion 1.1是Stability AI开发的图像生成视频AI模型,基于SVD Image-to-Video [25 frames]优化而来。它可将单张图片转换为25帧、1024x576分辨率的短视频,采用6FPS帧率和Motion Bucket Id 127参数,输出效果比1.0版本更稳定。该模型适用于艺术创作、教育等领域,支持非商业和商业用途。用户可通过Stability AI的generative-models仓库获取和使用该模型。
ddpm-celebahq-256 - 高效的无条件图像生成与渐进解压的新型扩散模型
DDPMGithubHuggingface图像合成图像降噪开源项目无条件图像生成模型深度学习
本项目使用去噪扩散概率模型,实现了高质量的图像合成,借鉴了不平衡热力学,创新性地结合了变分界限和去噪评分匹配,并通过Langevin动力学实现渐进的解压缩。模型在CIFAR10数据集上取得了9.46的Inception得分和3.17的最新FID得分,在256x256 LSUN上样本质量与ProgressiveGAN相近。推理中可使用离散噪声调度器如ddpm、ddim或pndm,ddim和pndm在速度和质量上表现出色。项目支持用户自主训练模型,并提供官方示例用于推理和训练。
image-restoration-sde - 创新图像恢复方法 结合SDE和扩散模型的IR-SDE与Refusion
GithubIR-SDERefusionSDE图像恢复开源项目深度学习
该项目提出IR-SDE和Refusion两种图像恢复方法。IR-SDE采用均值回复随机微分方程,在多项任务中达到最优性能。Refusion整合潜空间扩散模型,可处理大尺寸真实图像。这些技术适用于合成和实际数据集,有效解决图像去雨、去雾、去阴影等问题。项目开源完整PyTorch实现代码,并提供预训练模型和使用指南。
CoDeF - 视频内容变形场技术实现时序一致的视频处理
CoDeFGithub内容变形场图像算法提升开源项目时间一致性视频处理
CoDeF项目提出了内容变形场这一新型视频表示方法。它包含规范内容场和时间变形场两个部分,能够将图像算法应用于视频处理。这种设计实现了高质量的视频转换和关键点跟踪,同时保持了良好的跨帧一致性。CoDeF还能跟踪水和烟雾等非刚性物体,为视频处理带来新的可能性。
Awesome-Video-Diffusion-Models - 视频扩散模型研究进展与开源资源综述
Github开源工具箱开源项目数据集文本到视频生成视频生成模型评估指标
本文综述了视频扩散模型领域的研究进展和开源资源。内容包括最新工具箱、基础模型、数据集和评估指标,涵盖文本到视频生成、视频编辑和理解等多个方向。文章系统梳理了该领域的关键技术和资源,为研究人员和开发者提供全面参考,有助于推动视频生成和处理技术的发展。
distrifuser - 高效分布式并行推理助力高分辨率图像生成
DistriFusionGPU加速Githubdiffusion模型并行推理开源项目高分辨率
DistriFusion是一种用于高分辨率扩散模型的分布式并行推理算法。该方法无需额外训练,通过多GPU协同工作加速推理过程,同时保持图像质量。其创新的补丁交互技术解决了传统方法的碎片化问题,在高分辨率图像生成任务中显著提升了性能。该项目已在CVPR 2024被评为亮点工作,并开源了相关代码。
blended-diffusion - 使用自然语言进行图像局部编辑的工具
Blended DiffusionCLIPDDPMGithub图像编辑开源项目自然语言描述
Blended Diffusion 是一种利用自然语言和ROI掩模进行图像局部编辑的工具。结合了CLIP预训练语言-图像模型和DDPM去噪扩散模型,实现了高效的自然图像编辑。它可以保持背景完整,并无缝融合编辑区域,减少对抗性结果。功能包括新增物体、移除/替换/改变现有物体、背景替换和图像外推。相关代码和模型已开放下载,供用户探索。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号