Project Icon

InternVideo

视频基础模型助力多模态理解进展

InternVideo项目致力于开发通用视频基础模型,提升多模态视频理解能力。项目包含InternVideo和InternVideo2两个主要版本,以及大规模视频-文本数据集InternVid。InternVideo2采用生成式和判别式学习方法,在多模态视频理解任务中表现突出。项目不断更新,提供多种规模的模型和丰富的视频注释数据,为研究和开发提供有力支持。

StableVideo - 通过文本驱动实现一致性扩散的视频编辑技术
GithubHuggingFaceStableVideodiffusion开源项目文本驱动视频编辑
StableVideo 通过采用最新的文本驱动一致性扩散算法,提供了创新的视频编辑技术。用户可以下载预训练模型和示例视频,用于视频帧的编辑和渲染。该工具支持多种配置,提供详细的安装和运行指南,便于在本地进行实验。借助 ControlNet 和 Text2LIVE 等开源资源,StableVideo 展示了其在视频处理领域的强大应用潜力。如果该项目对研究有帮助,请参考相关学术论文。
Video-LLaVA-7B - 统一图像和视频处理的多模态AI模型
GithubHuggingfaceVideo-LLaVA多模态模型大语言模型开源项目模型视觉语言处理视频理解
Video-LLaVA是一种新型多模态AI模型,采用对齐后投影方法学习统一视觉表示。该模型能同时处理图像和视频,具备出色的视觉推理能力。即使没有图像-视频配对数据,Video-LLaVA也能实现图像和视频间的有效交互。通过将统一视觉表示与语言特征空间绑定,该模型在多模态学习和各类视觉任务中展现优异性能。
Upscale-A-Video - 基于扩散模型的时序一致视频超分辨率技术
AI视频处理GithubUpscale-A-VideoYouHQ数据集开源项目扩散模型视频超分辨率
Upscale-A-Video是一个视频超分辨率项目,采用扩散模型技术处理低分辨率视频和文本提示输入。该项目重点解决真实世界视频的时序一致性问题,并发布了YouHQ数据集用于模型训练和评估。Upscale-A-Video旨在提高视频分辨率的同时保持帧间连贯性。
Human-Video-Generation - 人工智能视频生成技术的演进与应用
3D建模Github人体视频生成人工智能开源项目深度学习计算机视觉
Human-Video-Generation项目收录了2018年以来人工智能视频生成领域的重要研究成果。该项目涵盖面部重演、动作迁移和语音驱动动画等多个方向,提供了前沿论文、代码实现和演示视频。从早期的PSGAN到最新的Real3D-Portrait,项目全面展示了AI视频生成技术的快速进展,为相关领域的研究者和开发者提供了丰富的参考资源。
VisionLLM - 面向视觉任务的开放式多模态大语言模型
GithubVisionLLM人工智能多模态大语言模型开源项目视觉语言任务计算机视觉
VisionLLM 系列是一种多模态大语言模型,专注于视觉相关任务。该模型利用大语言模型作为开放式解码器,支持数百种视觉语言任务,包括视觉理解、感知和生成。VisionLLM v2 进一步提升了模型的通用性,扩展了其在多模态应用场景中的能力,推动了计算机视觉与自然语言处理的融合。
Qwen2-VL-72B-Instruct - 多模态视觉语言模型实现图像视频理解与交互
GithubHuggingfaceQwen2-VL图像识别多模态处理开源项目模型视觉语言模型视频理解
Qwen2-VL-72B-Instruct是一款多模态视觉语言模型,具备处理任意分辨率图像和长达20分钟视频的能力。该模型可执行复杂视觉推理任务,支持多语言,并能作为智能代理操控设备。在多项视觉语言基准测试中,Qwen2-VL-72B-Instruct展现出优异的性能。
cogvlm2-llama3-caption - 视频转文本方案,助力优化文本-视频模型训练
CogVLM2-CaptionGithubHuggingfacePyTorch开源项目模型视频描述视频转文本训练数据生成
CogVLM2-Llama3-Caption项目专注于将视频数据转换为文本描述,为文本-视频模型提供关键训练数据。利用先进的视频解码和文本生成技术,该工具支持精确视频转录,为包括CogVideoX在内的模型生成高质量训练素材。该模型结合了Transformer技术和灵活处理策略,可在CUDA设备上高效运行,帮助开发者高效进行视频内容分析。
stable-video-diffusion-img2vid-xt - 图像到视频转换模型Stable Video Diffusion实现动画生成
GithubHuggingfaceStable Video Diffusion人工智能图像到视频生成开源项目模型深度学习计算机视觉
Stable Video Diffusion Image-to-Video是Stability AI开发的扩散模型,可将静态图像转换为短视频。该模型生成25帧、576x1024分辨率的视频片段,视频质量优于同类产品。适用于艺术创作、教育工具等场景,支持商业和非商业用途。模型存在视频较短、不支持文本控制等局限性。开发者可通过GitHub上的开源代码使用该模型。
LanguageBind_Video_merge - 实现多模态与语言的语义对齐
GithubHuggingfaceLanguageBindVIDAL-10M多模态预训练应急零样本开源项目模型视频语言
LanguageBind项目提出一种基于语言的多模态预训练方法,通过语言对齐视频、红外、深度、音频等多种模态。该方法无需中间模态,性能优异。项目构建了VIDAL-10M数据集,包含1000万条多模态数据及对应语言描述。通过多视角增强和ChatGPT优化的语言描述,为各模态创建了语义空间。该方法在多个数据集上达到了最先进水平。
llava-onevision-qwen2-0.5b-ov-hf - 推动单图、多图和视频理解的多模态大语言模型
GithubHuggingfaceLLaVA-Onevision图像理解多模态语言模型开源项目模型视频理解计算机视觉
LLaVA-Onevision是基于Qwen2的多模态大语言模型,通过微调GPT生成的多模态指令数据训练而成。作为首个同时推动单图、多图和视频场景性能边界的模型,它展现出强大的视频理解和跨场景能力,实现了从图像到视频的任务迁移。该模型支持多图像和多提示生成,为多样化的视觉理解任务提供了灵活解决方案。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号