Project Icon

VEnhancer

提升文本到视频生成质量的时空增强框架

VEnhancer是一个时空增强框架,旨在提高文本到视频(T2V)生成模型的输出质量。该框架基于ControlNet结构,整合了预训练视频扩散模型的多帧编码器和中间块,构建可训练的条件网络。VEnhancer接收低分辨率关键帧和完整噪声潜在帧作为输入,通过噪声增强和下采样因子进行网络调节,从而生成更高质量、更连贯的视频内容。

control_v11f1e_sd15_tile - 基于ControlNet的高精度图像超分辨率与细节增强模型
ControlNetGithubHuggingfaceStable Diffusion图像生成开源项目扩散模型模型深度学习
control_v11f1e_sd15_tile是ControlNet v1.1系列中专注于图像细节增强的模型。通过与Stable Diffusion结合,该模型能将低分辨率或模糊图像转换为清晰度更高的图像。这个开源项目不仅支持图像超分辨率处理,还可用于生成与输入图像大小相同但细节更丰富的图像,为数字图像处理提供了新的解决方案。
InternVideo - 视频基础模型助力多模态理解进展
GithubInternVideo多模态理解开源项目模型更新视频基础模型视频文本数据集
InternVideo项目致力于开发通用视频基础模型,提升多模态视频理解能力。项目包含InternVideo和InternVideo2两个主要版本,以及大规模视频-文本数据集InternVid。InternVideo2采用生成式和判别式学习方法,在多模态视频理解任务中表现突出。项目不断更新,提供多种规模的模型和丰富的视频注释数据,为研究和开发提供有力支持。
Lumina-T2X - Lumina-T2X项目:多模态文本转换的流式扩散模型
GithubLumina-T2X多模态生成大型扩散变换器开源项目文本转换高分辨率图像生成
Lumina-T2X利用基于流的扩散变换器,实现文本向多种模态、分辨率和持续时间的转换,包括图像、音频和视频。其功能还包括高分辨率生成、多轮对话、深度图和分割图估计等。项目提供多语言提示和表情符号支持,适用于多种智能生成需求。访问项目页面了解更多详情和使用案例。
video2x - 开源视频和图像超分辨率增强软件
Video2X是一个开源的视频、GIF和图像超分辨率处理软件。它集成了waifu2x、Real-ESRGAN等多种先进算法,能够有效提升媒体质量。Video2X提供图形界面、命令行和Docker容器三种使用方式,支持Windows和Linux平台。除了提高分辨率外,该工具还具备帧率插值功能,可以显著改善视频的流畅度和清晰度。
Vlogger - 多模型协作生成长视频博客的AI系统
AI系统GithubShowMakerVlogger大语言模型开源项目视频生成
Vlogger是一个创新AI系统,可根据文本描述生成分钟级视频博客。该系统利用大型语言模型作为导演,将长视频生成任务分解为四个阶段,并调用多种基础模型扮演专业角色。Vlogger引入了视频扩散模型ShowMaker,融合文本和视觉提示以增强空间-时间连贯性。系统能从开放描述生成超过5分钟的连贯vlogs,在脚本和演员方面保持一致性。
sd-webui-text2video - 基于Auto1111的多样化text2video模型实现
GithubLoRAModelScopeStableDiffusion WebUIText2videoVideoCrafter开源项目
基于Auto1111的webui依赖,该扩展实现了ModelScope和VideoCrafter等text2video模型,无需登录即可使用。要求至少6GB的VRAM,支持不同帧数和分辨率的视频生成。项目包含多次更新,新增功能如VAE设置、提示权重和WebAPI,并支持LoRA训练。提供详细的模型下载指南,并欢迎社区的贡献与支持。
text2cinemagraph - 文本描述生成电影图像的全自动方法
GithubODISEOptical Flow PredictionPyTorchStable DiffusionText2Cinemagraph开源项目
该项目提供了一种由文本描述生成映画图的全自动方法。通过Stable Diffusion技术,从自然图像和视频数据集中提取语义信息,预测并传递运动到艺术风格图像中,生成电影图像。详细说明了环境设置、预训练模型下载及推理和训练指南,适用于高级图像处理和动画生成的用户。
FIFO-Diffusion_public - 文本驱动的无限长度视频生成技术
AI视频生成FIFO-DiffusionGithub开源项目文本生成视频无限长视频
FIFO-Diffusion是一种创新的文本到视频生成技术,无需额外训练即可从文本描述生成无限长度的高质量视频。该项目具有低内存需求(不到10GB VRAM)、支持多GPU并行推理等特点,并可与VideoCrafter2和Open-Sora Plan等先进模型兼容。FIFO-Diffusion为研究人员和开发者提供了探索和创造长时间、连贯视频内容的有力工具。
stable-video-diffusion-img2vid-xt-1-1 - 高性能图片转视频生成模型,支持1024x576像素视频制作
GithubHuggingfaceStable Video Diffusion人工智能模型商业授权图像转视频开源项目模型生成式AI
Stable Video Diffusion 1.1是Stability AI开发的图像生成视频AI模型,基于SVD Image-to-Video [25 frames]优化而来。它可将单张图片转换为25帧、1024x576分辨率的短视频,采用6FPS帧率和Motion Bucket Id 127参数,输出效果比1.0版本更稳定。该模型适用于艺术创作、教育等领域,支持非商业和商业用途。用户可通过Stability AI的generative-models仓库获取和使用该模型。
FAST-VQA-and-FasterVQA - 开源高效视频质量评估框架
FAST-VQAFasterVQAGithub开源项目机器学习深度学习视频质量评估
FAST-VQA和FasterVQA是端到端视频质量评估的开源工具箱,提供高效的评估模型。FasterVQA作为FAST-VQA的改进版,在保持相似性能的同时速度提升4倍。这些模型在多个数据集上达到最先进水平。项目采用模块化架构,支持灵活的空间和时间采样方法及多种网络结构。研究者可进行模型训练、测试,并在小型数据集上微调。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号