Project Icon

CogVideoX-5b-I2V

开源图像到视频生成模型支持多种精度和量化推理

CogVideoX-5b-I2V是一个开源的图像到视频生成模型,参数规模为5B。该模型可生成6秒长、8帧/秒、720x480分辨率的视频,支持多种精度和量化推理。通过diffusers库可快速部署,单GPU运行时内存占用较低。模型提供量化推理功能,适用于小内存GPU,并可通过torch.compile加速。

video_features - 多模态视频特征提取框架 支持多种深度学习模型
GitHub项目Github多模态分析开源项目深度学习模型视频特征提取计算机视觉
video_features是一个开源的视频特征提取框架,支持视觉、音频和光流等多种模态。该框架集成了S3D、R(2+1)d、I3D-Net等动作识别模型,VGGish声音识别模型,以及RAFT光流提取模型。它支持多GPU和多节点并行处理,可通过命令行或Colab快速使用。输出格式灵活,适用于视频分析相关的研究和应用。
LLaVA-NeXT-Video-7B-hf - 先进多模态AI模型实现视频和图像理解
GithubHuggingfaceLLaVA-NeXT-Video人工智能多模态大语言模型开源项目模型视频理解
LLaVA-NeXT-Video-7B-hf是一个开源多模态AI模型,通过视频和图像数据的混合微调,实现了出色的视频理解能力。该模型支持多视觉输入和多提示生成,在VideoMME基准测试中表现优异。基于Vicuna-7B语言模型,可处理视频问答和图像描述等视觉任务。模型支持4位量化和Flash Attention 2优化,提供灵活高效的使用方式。
Awesome-Video-Diffusion - 人工智能视频生成与编辑技术资源大全
AI视频Github开源项目扩散模型文本到视频视频生成视频编辑
本文汇集了视频生成、编辑、修复和理解领域的最新扩散模型研究。内容包括开源工具箱、基础模型、评估基准和指标等。涵盖基础视频生成、可控生成、长视频生成、3D视频生成等多个方向,为视频AI技术研究和开发提供全面参考。
CV-VAE - 兼容预训练模型的视频生成技术
CV-VAEGithubVAE兼容性开源项目潜在空间视频生成
CV-VAE是一种视频变分自编码器,专为潜在生成视频模型设计。它与预训练图像和视频模型(如SD 2.1和SVD)兼容,用于视频重建和生成。项目提供代码实现和预训练模型权重,支持视频重建和文本到视频转换。CV-VAE为视频生成技术研究提供了新的工具和方向。
magvit2-pytorch - MagViT2视频生成和理解模型的PyTorch开源实现
AI模型GithubMagViT2Pytorch实现开源项目视频生成语言模型
MagViT2是基于语言模型的最新视频生成和理解技术。该PyTorch实现提供高效视频标记器和训练器,支持大规模数据集。项目包含无查找量化器,适用于多种模态。灵活架构设计允许自定义层和注意力机制,为研究人员提供探索和改进视频生成技术的工具。
Text-To-Video-Finetuning - 使用Diffusers微调ModelScope的文本生成视频模型,提供安装、配置和训练指南
Diffusion ModelsExponentialMLGithubLoRAModelScopeText-To-Video开源项目
Text-To-Video-Finetuning项目使用Diffusers微调ModelScope的文本生成视频模型,提供详尽的安装、配置和训练指南。主要更新包括LoRA训练、模型格式转换和Torch 2.0支持。项目现已归档,相关资源及支持文件仍可用。建议关注@damo-vilab的新实现,以体验全面的视频扩散微调功能。支持多种模型训练与推断,适用于VRAM限制设备,模块化设计方便定制与扩展。
Text2Video - 文本生成视频模型
GithubText2Video开源项目深度学习生成对抗网络视频合成语音合成
Text2Video采用深度学习技术,通过建立音素姿势字典与训练生成对抗网络,从文本生成视频,该技术相较于传统音频驱动的视频生成方法,具有更少的数据需求、更高的灵活性和更低的时间成本。在标准数据集上的广泛测试证明了其显著的效果和优势。
text-to-video-synthesis-colab - 多模型文本到视频合成工具集成
AI模型ColabGithubHugging Face开源项目文本生成视频
该开源项目集成了Longscope、Zeroscope和Potat1等多个文本到视频合成模型。用户可在Colab环境中,通过输入文本生成短视频。项目支持多种分辨率和风格选择,并包含视频增强功能。这一工具集适用于多种创意和内容制作场景,为AI视频创作提供了便利。
cogvlm2-llama3-chat-19B-int4 - 不同场景应用的高性能多语言文本生成模型
CogVLM2GPU内存需求GithubHuggingface中英文支持图像分辨率基准测试开源项目模型
CogVLM2是一种先进的多语言文本生成模型,在多项基准测试中表现优异,如TextVQA和DocVQA。支持高达8K的文本长度和1344x1344的图像分辨率,并能在ZhipuAI开放平台上进行体验。该模型拥有高效的设计,占用较低的GPU内存,需在Linux系统下的Nvidia显卡上运行,适用于多语言环境中的各种场景。
sharegpt4video-8b - 基于视频指令数据训练的开源视频对话模型
GithubHuggingfaceShareGPT4Video开源项目机器学习模型视频指令数据视频聊天机器人视频语言模型
sharegpt4video-8b是一个开源视频对话模型,基于153K多样化视频指令数据和28K高质量视频字幕数据进行全模型微调。该模型能处理视频问答、描述和分析等任务,旨在推进视频-语言模型研究。它主要面向计算机视觉、自然语言处理和人工智能领域的研究人员,用于探索大规模视频-语言模型和视频聊天机器人的潜力。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号