#图像到视频生成
cond-image-leakage - 改进图像到视频扩散模型中的条件图像依赖问题
图像到视频生成扩散模型条件图像泄漏DynamiCrafterVideoCrafterGithub开源项目
该研究揭示并解决了图像到视频扩散模型中的条件图像依赖问题。研究团队提出了适用于DynamiCrafter、SVD和VideoCrafter1等多种模型的即插即用推理和训练策略。这些策略减轻了模型对条件图像的过度依赖,增强了生成视频的动态效果。项目开源的代码、模型和演示为图像到视频生成研究提供了重要参考。
CVPR23_LFDM - 潜在流扩散模型实现条件图像到视频生成
LFDM图像到视频生成条件生成潜在流扩散模型深度学习Github开源项目
CVPR23_LFDM项目提出了一种基于潜在流扩散模型的条件图像到视频生成方法。该方法在MUG、MHAD和NATOPS数据集上展示了生成流畅自然的人脸表情和人体动作视频的能力。项目开源了预训练模型、演示代码和详细的模型训练流程,为计算机视觉研究提供了有价值的资源。
stable-video-diffusion-img2vid-xt - 图像到视频转换模型Stable Video Diffusion实现动画生成
模型图像到视频生成计算机视觉Stable Video Diffusion人工智能Github深度学习Huggingface开源项目
Stable Video Diffusion Image-to-Video是Stability AI开发的扩散模型,可将静态图像转换为短视频。该模型生成25帧、576x1024分辨率的视频片段,视频质量优于同类产品。适用于艺术创作、教育工具等场景,支持商业和非商业用途。模型存在视频较短、不支持文本控制等局限性。开发者可通过GitHub上的开源代码使用该模型。
stable-video-diffusion-img2vid - AI模型将静态图像转换为动态短视频的创新技术
模型图像到视频生成计算机视觉Stable Video Diffusion人工智能Github深度学习Huggingface开源项目
Stable Video Diffusion Image-to-Video是一种先进的AI模型,可将静态图像转化为短视频。该模型利用潜在扩散技术,生成14帧、576x1024分辨率的视频片段。在视频质量方面表现出色,主要应用于生成模型研究和安全部署等领域。尽管存在视频时长短、可能缺乏动作等限制,但该模型为图像到视频转换技术带来了新的可能性。目前仅限于研究用途,不适用于生成事实性或真实性内容。