Project Icon

FreeNoise

通过噪声重新调度实现无调谐的更长视频传播

FreeNoise是一种基于噪声重调的无调参长视频生成方法,不需要调参,仅需增加不到20%的时间即可实现高质量、长时间视频生成,支持多达512帧。该方法兼容VideoCrafter2、AnimateDiff和LaVie等视频框架,支持单一和多提示词的文本转视频生成,最新支持256x256分辨率。详情请参见项目页面和arXiv论文。

stableVideo - 使用Stable Video Diffusion技术将图像和文本转换为短视频
AI工具AI视频生成Stability AIStable Video图像转视频文本转视频
stableVideo是基于Stable Video Diffusion模型的在线工具,可将图像或文本转换为短视频。支持16:9、9:16和1:1等常见宽高比,适合灵活创作。工具处理速度快,界面易用,适用于媒体、娱乐、教育和营销等领域。stableVideo为创作者提供了将静态概念转化为动态视觉内容的新方式。
stable-video-diffusion-img2vid-xt - 图像到视频转换模型Stable Video Diffusion实现动画生成
GithubHuggingfaceStable Video Diffusion人工智能图像到视频生成开源项目模型深度学习计算机视觉
Stable Video Diffusion Image-to-Video是Stability AI开发的扩散模型,可将静态图像转换为短视频。该模型生成25帧、576x1024分辨率的视频片段,视频质量优于同类产品。适用于艺术创作、教育工具等场景,支持商业和非商业用途。模型存在视频较短、不支持文本控制等局限性。开发者可通过GitHub上的开源代码使用该模型。
TemporalKit - 优化Stable Diffusion视频的时间稳定性和连贯性
EbSynthGithubStable DiffusionTemporalKit关键帧开源项目视频处理
TemporalKit是Stable Diffusion的扩展插件,旨在提高AI生成视频的时间稳定性。该工具支持关键帧提取、图像处理和EbSynth集成,可生成流畅连贯的视频效果。它简化了视频处理流程,支持批量处理,并提供详细教程。TemporalKit适合需要提升AI视频质量的创作者使用,有助于生成更加稳定和连贯的视频内容。
video-retalking - 音频驱动的实时视频唇形同步编辑系统
AI技术GithubVideoReTalking人脸编辑唇形同步开源项目视频处理
VideoReTalking是一个创新系统,通过输入音频编辑真实世界说话人头视频的面部,生成高质量且唇形同步的输出视频。系统将任务分为三步:生成标准表情面部视频、实现音频驱动的唇形同步,以及增强面部真实感。整个过程采用基于机器学习的方法,无需人工干预即可自动完成。
Neural Frames - 音乐视频制作的智能动画生成平台
AI工具AI视频生成neural frames创意工具数字艺术音乐可视化
Neural Frames是一个基于AI技术的音乐视频制作平台。用户可以通过文字提示生成音乐动画,实现音乐的视觉化表达。平台提供实时控制、高质量渲染和音频响应等功能,适用于创建Spotify画布短视频或完整音乐视频。其核心技术采用稳定扩散算法,结合高性能GPU处理和专业上采样技术,输出流畅、高质量的视频内容。该工具为音乐创作者提供了高效的视觉创作解决方案。
blur - 视频运动模糊效果生成器
BlurGithub帧率插值开源项目视频处理视频编辑运动模糊
Blur是一款开源的视频运动模糊处理程序。它利用帧混合技术生成高质量的运动模糊效果,可自定义模糊程度和帧率插值。该工具能够智能识别视频中的静止部分,仅对运动元素应用模糊效果。Blur提供图形界面和命令行操作,适用于游戏录像、影视后期等多种场景。其独特的插值算法可在低帧率视频中实现流畅的运动模糊效果。
Make-Your-Video - 结合文本和深度信息的智能视频生成模型
AI模型GithubMake-Your-Video开源项目深度学习视频生成计算机视觉
Make-Your-Video是一个结合文本和深度信息的视频生成模型。它继承了图像潜在扩散模型的丰富视觉概念,支持长视频推理。该模型可将真实场景和3D建模场景转化为视频,并支持视频重渲染。相比其他方法,Make-Your-Video在视觉质量和动作控制方面表现优异,为视频创作提供了新的可能性。
Vlogger - 多模型协作生成长视频博客的AI系统
AI系统GithubShowMakerVlogger大语言模型开源项目视频生成
Vlogger是一个创新AI系统,可根据文本描述生成分钟级视频博客。该系统利用大型语言模型作为导演,将长视频生成任务分解为四个阶段,并调用多种基础模型扮演专业角色。Vlogger引入了视频扩散模型ShowMaker,融合文本和视觉提示以增强空间-时间连贯性。系统能从开放描述生成超过5分钟的连贯vlogs,在脚本和演员方面保持一致性。
MOFA-Video - 可控图像动画图像到视频扩散模型
ECCV 2024GithubMOFA-Video图像动画开源项目混合控制生成模型
MOFA-Video项目采用稀疏到稠密运动生成和基于流的运动适配技术,能通过轨迹、关键点序列及其组合等多种控制信号将单张图像转化为动画。最新更新包括关键点面部图像动画的推理脚本和轨迹图像动画的训练代码。该项目即将亮相ECCV 2024,并提供多个演示和检查点,便于用户测试和使用。访问项目页面了解更多详情和效果展示。
V-Express - 渐进式训练提升肖像视频生成质量
GithubV-Express开源项目控制信号平衡条件性丢弃渐进式训练肖像视频生成
V-Express项目提出条件性丢弃新方法,实现肖像视频生成的渐进式训练。该方法平衡不同控制信号强度,增强音频等弱信号作用,同时考虑姿态、图像和音频,生成高质量肖像视频。项目优化内存使用,支持长视频生成,提供多种重定向策略,适用不同场景。开源代码和模型可供学术及商业用途,但使用时需遵守相关法规。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号