Project Icon

FollowYourPose

基于姿态和文本的自动视频生成技术

FollowYourPose项目提出了一种新方法,可以通过姿态和文本生成视频。该方法采用两阶段训练方案,利用易获取的数据集和预训练的文本到图像模型,生成可编辑且姿态可控的角色视频。第一阶段通过关键点图像对进行文本到图像的生成,第二阶段利用姿态自由视频数据集微调网络,成功生成连续的姿态可控角色视频,同时保留预训练模型的编辑和概念组合能力。

Generative-AI - 多模态图像合成与编辑技术及其分类
Data ModalityGenerative AIGithubMultimodal Image Synthesis and EditingTaxonomyVisual AIGC开源项目
该项目附有一篇综述论文,全面分析了多模态图像合成与编辑(MISE)和视觉AIGC的发展情况,并根据数据模态和模型架构进行了分类研究。通过此项研究,科研人员和技术开发者可以深入了解神经渲染、扩散方法、自回归方法及对抗生成网络(GAN)等不同技术及其应用,帮助更好地掌握多模态图像合成技术的前沿进展与实际应用。
MotionGPT - 构建多任务的人体动作与语言统一模型
GithubMotionGPT人体动作人机交互多模态数据开源项目模型训练
MotionGPT是一种整合人体动作和语言的统一模型,专注于两种模态间的语义耦合学习。在诸多人体动作任务中表现优异,包括文本驱动动作生成、动作标题生成及动作预测。该模型结合预训练与指令性微调,能高效处理多种动作相关任务,是动作语言模型的新代表。此外,其零拍技术使其能识别新词汇并生成相应动作,突显处理复杂场景的能力。
VideoTetris - 创新视频生成技术 实现复杂语义精确组合
GithubVideoTetris开源项目文本到视频生成时空组合扩散组合式生成长视频生成
VideoTetris是一个视频生成框架,采用时空组合扩散技术实现复杂文本语义的精确表达。通过操控去噪网络的注意力图,在空间和时间维度上控制视频生成。项目提出了视频数据预处理方法,提升了训练数据的动态性和提示理解能力。VideoTetris可生成10秒至2分钟或更长的视频,为复杂场景视频生成提供了新方案。
EchoMimic - 音频驱动的逼真人像动画系统 支持关键点编辑
AI模型EchoMimicGithub关键点条件开源项目肖像动画音频驱动
EchoMimic是一个音频驱动的人像动画系统,通过编辑关键点来控制动画效果。系统支持英语和中文音频输入,可生成自然的口型、表情和头部动作。项目开源了推理代码和预训练模型,可用于生成高质量的说话头视频,适用于虚拟主播等应用场景。
StreamingT2V - 先进的长视频生成技术 实现连贯动态和可扩展内容
GithubStreamingT2V一致性动态视频开源项目文本到视频长视频生成
StreamingT2V是一种创新的自回归技术,专门用于生成长时间、连贯一致的视频内容。该技术无需分段处理即可创建动态丰富的视频,确保了时间上的连贯性,同时保持与文本描述的高度契合和单帧图像的优质表现。目前已实现生成1200帧(约2分钟)的视频,并具有进一步延长的潜力。值得注意的是,StreamingT2V的性能不局限于特定的文本到视频模型,这意味着随着基础模型的进步,视频质量有望进一步提升。
AniPortrait - 基于音频的高质量肖像动画生成框架
AniPortraitGithub人像动画人工智能图像合成开源项目音频驱动
AniPortrait是一个基于音频和参考肖像图像生成高质量动画的开源框架。该项目支持自驱动、面部重演和音频驱动三种模式,可生成逼真的肖像动画。项目开源了预训练模型,并提供了详细的安装指南、推理命令和训练流程。AniPortrait为数字内容创作者提供了一种制作生动肖像动画的新方法,拓展了视觉内容创作的可能性。
stable-video-diffusion-img2vid-xt - 图像到视频转换模型Stable Video Diffusion实现动画生成
GithubHuggingfaceStable Video Diffusion人工智能图像到视频生成开源项目模型深度学习计算机视觉
Stable Video Diffusion Image-to-Video是Stability AI开发的扩散模型,可将静态图像转换为短视频。该模型生成25帧、576x1024分辨率的视频片段,视频质量优于同类产品。适用于艺术创作、教育工具等场景,支持商业和非商业用途。模型存在视频较短、不支持文本控制等局限性。开发者可通过GitHub上的开源代码使用该模型。
Gen-L-Video - 无需额外训练实现多文本条件长视频生成和编辑
Gen-L-VideoGithub多文本条件开源项目无需预训练视频编辑长视频生成
Gen-L-Video是一种扩展短视频扩散模型的视频生成方法,能实现多文本条件下的长视频生成和编辑。该方法无需额外训练即可处理数百帧的视频,并保持内容一致性。Gen-L-Video支持多语义段视频生成、平滑语义变化和视频内容编辑等功能,为长视频处理提供了一种通用解决方案。
awesome-conditional-content-generation - 条件内容生成的前沿技术与资源集锦
Github人工智能内容生成动作生成图像生成开源项目视频生成
这是一个综合性的条件内容生成资源库,主要聚焦于人体动作、图像和视频生成领域。项目汇集了最新研究论文和代码实现,包括音乐、文本和音频驱动的动作生成,以及人体动作预测等多个研究方向。同时还收录了条件图像和视频生成的相关资源,为该领域的研究和开发提供了丰富的参考材料。
FreeViggleAI - 将静态照片转化为动感舞蹈视频的AI工具
AI动画生成AI工具AI舞蹈视频Viggle AI人工智能创作社交媒体分享
FreeViggleAI是一款AI舞蹈视频生成器,可将静态照片转化为动感舞蹈视频。其核心是JST-1机器学习模型,能解析视频动作并融合到静态图像中。用户通过提示词可自定义角色动作和背景。支持在主流社交平台分享作品。适用于个人娱乐及内容创作,也可用于社交媒体营销。目前由于服务器容量限制,需加入等待列表。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号