Project Icon

text-to-video-ms-1.7b

多阶段扩散模型实现文本到视频的智能转换

text-to-video-ms-1.7b是一个基于多阶段扩散模型的文本到视频生成系统。该模型可将英文文本描述转化为匹配的视频内容,由三个子网络组成,总参数约17亿。支持长视频生成,适用于多种创意应用场景。目前仅支持英语输入,且存在无法生成清晰文本等局限性。该模型仅供研究用途,使用时应注意避免生成不当或有害内容。

InternVideo - 视频基础模型助力多模态理解进展
GithubInternVideo多模态理解开源项目模型更新视频基础模型视频文本数据集
InternVideo项目致力于开发通用视频基础模型,提升多模态视频理解能力。项目包含InternVideo和InternVideo2两个主要版本,以及大规模视频-文本数据集InternVid。InternVideo2采用生成式和判别式学习方法,在多模态视频理解任务中表现突出。项目不断更新,提供多种规模的模型和丰富的视频注释数据,为研究和开发提供有力支持。
cogvlm2-llama3-chat-19B - 支持8K内容长度和高分辨率图像的开源多模态AI模型
CogVLM2GithubHuggingface人工智能图像理解对话模型开源项目模型视觉语言模型
CogVLM2是基于Meta-Llama-3-8B-Instruct的开源多模态AI模型,支持8K内容长度和1344*1344图像分辨率。该模型在TextVQA、DocVQA等多项基准测试中表现优异,具备图像理解和对话能力。CogVLM2提供英文和中英双语版本,在开源模型中表现突出,部分任务性能可与非开源模型媲美。
metavoice-src - 1.2B参数开源TTS模型,支持情感语音合成和跨语言声音克隆
GithubMetaVoice-1BTTS开源开源项目情感语音语音克隆
MetaVoice-1B是一个开源的1.2B参数TTS模型,经过10万小时的语音训练,支持英语情感语音合成和零样本的美式和英式语音克隆(仅需30秒参考音频)。该模型还支持跨语言声音克隆和任意长度文本的语音合成。可通过云端或本地部署使用,并提供Hugging Face和Google Colab的演示。
Stable Video Diffusion Online - AI驱动的图像到视频转换在线平台
AI工具AI视频生成Stable Video Diffusion图像到视频转换生成式视频视频创作工具
Stable Video Diffusion Online提供基于Stable Diffusion模型的AI图像到视频转换服务。该工具支持3-30fps的灵活视频生成,适用于广告、社交媒体内容和表情包制作等多种场景。平台提供多种订阅计划,满足不同用户需求,简化了高质量视频内容的创作过程。利用先进的AI技术,用户可以轻松将静态图像转换为高分辨率视频,为创意制作提供便捷的解决方案。
Awesome-LLMs-for-Video-Understanding - 视频理解领域大型语言模型应用综述
Github多模态大语言模型开源项目指令微调视频分析视频理解
该项目汇集了大型语言模型在视频理解领域的最新应用进展,包括视频LLM模型、训练策略、相关任务、数据集、基准测试和评估方法。项目全面概述了LLM如何推动视频理解技术发展,并探讨了其应用前景。这是研究人员和开发者了解视频LLM最新进展的重要资源。
normal-depth-diffusion - 通用法线深度扩散模型实现高细节3D生成
3D模型AI生成GithubNormal-Depth Diffusion Model图像生成开源项目深度学习
Normal-Depth Diffusion Model是一个创新的文本到3D生成模型,采用法线深度扩散技术生成细节丰富的3D模型。该项目支持单视图和多视图生成,提供预训练权重、推理和训练代码,以及Objaverse数据集的多视图渲染图像。这一模型为3D内容创作开辟新途径,可应用于艺术设计等多个领域。
SEINE - 短视频到长视频生成的SEINE模型,支持生成过渡效果和视频预测
GithubSEINEStable DiffusionVchitect开源项目视频扩散模型视频生成
SEINE模型是一个专为短视频到长视频生成设计的视频扩散模型,支持过渡效果和视频预测。作为Vchitect视频生成系统的一部分,SEINE基于稳定扩散v1.4模型,支持从文本生成视频的框架LaVie。用户通过配置脚本可生成不同条件下的视频,文档中提供了详细的设置和使用说明。项目提供模型下载链接,并展示了实际的输入图像和输出视频效果。代码以Apache-2.0开源许可发布,可用于学术研究和商业用途。
videollm-online - 流式视频实时理解与交互的先进模型
GithubVideoLLM-online大语言模型实时交互开源项目流媒体视频视频处理
VideoLLM-online是一款针对流媒体视频的在线大语言模型。该模型支持视频流实时交互,可主动更新响应,如记录活动变化和提供实时指导。项目通过创新的数据合成方法将离线注释转化为流式对话数据,并采用并行化推理技术实现高速处理,在A100 GPU上处理速度可达10-15 FPS。VideoLLM-online在在线和离线环境中均表现出色,能高效处理长达10分钟的视频,为视频理解与交互领域带来新的可能性。
Video-ChatGPT - 创新视频对话技术开启细致视频理解新纪元
GithubVideo-ChatGPT多模态大型视觉语言模型开源项目视频理解问答系统
Video-ChatGPT是一个融合大型视觉和语言模型的视频对话系统。该项目构建了10万条视频-指令对数据集,开发了首个视频对话量化评估框架,在视频推理、创意生成、空间和时间理解等任务中表现出色。这一开源项目为视频内容理解和人机交互带来了新的发展方向。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号