Project Icon

ICCV2023-MCNET

基于隐式身份表示的说话头视频生成方法

MCNet是一种新型说话头视频生成方法,在ICCV 2023上发表。该方法利用隐式身份表示和记忆补偿网络,生成高质量、自然的说话头视频。MCNet能够保持身份一致性,同时生成逼真、富有表现力的面部动画。项目开源了代码实现和预训练模型,为研究者提供了探索和应用的基础。

StyleAvatar3D - 创新3D头像生成技术融合图像文本扩散模型
3D头像生成GithubStyleAvatar3D图像文本扩散模型多视图图像开源项目生成对抗网络
StyleAvatar3D是一种新型3D头像生成方法,结合预训练图像文本扩散模型和GAN技术。该方法利用扩散模型先验知识生成多视角、高质量、多样化头像图像,通过特殊判别器和提示词技术解决数据不对齐问题。项目还开发了潜在扩散模型,可基于输入图像生成头像。StyleAvatar3D在视觉质量和多样性方面优于现有技术。
make-a-video-pytorch - 基于 PyTorch 的最新文本到视频生成器
3D卷积GithubMake-A-VideoMeta AIPytorch开源项目时序注意力
此项目实现了 Meta AI 的 Make-A-Video 在 PyTorch 下的版本,利用伪 3D 卷积和时序注意力技术,显著增强了视频的时序一致性。支持图像和视频帧的处理,并且可轻松适用于 DALL-E2 和 Imagen 等模型。项目提供了完整的安装和使用指南,并支持空间和时间一致性的 Unet 模型。
Moore-AnimateAnyone - 开源人物动画生成和人脸重演项目
AnimateAnyoneGithub人工智能动画生成开源项目深度学习视频合成
Moore-AnimateAnyone是一个开源的人物动画生成项目,可基于单张参考图像和动作序列生成视频动画。项目还包含人脸重演功能,能精确控制源图像表情和动作。目前已开源推理代码和预训练模型,提供在线演示。未来计划加入音频驱动的人像视频生成等新功能,持续为AIGC领域贡献创新技术。
vid2avatar - 自监督场景分解实现野外视频3D人物重建
3D头像重建GithubVid2Avatar场景分解开源项目自监督学习视频处理
Vid2Avatar是一个开源项目,采用自监督场景分解方法从未处理的野外视频中重建3D人物模型。该方法无需额外监督,通过分离人物和背景实现精确建模。项目包含完整代码、预处理数据集和使用说明,适用于复杂场景的人物建模。
MOFA-Video - 可控图像动画图像到视频扩散模型
ECCV 2024GithubMOFA-Video图像动画开源项目混合控制生成模型
MOFA-Video项目采用稀疏到稠密运动生成和基于流的运动适配技术,能通过轨迹、关键点序列及其组合等多种控制信号将单张图像转化为动画。最新更新包括关键点面部图像动画的推理脚本和轨迹图像动画的训练代码。该项目即将亮相ECCV 2024,并提供多个演示和检查点,便于用户测试和使用。访问项目页面了解更多详情和效果展示。
FlashFace - 高保真人物图像个性化生成技术
AI绘图FlashFaceGithub人像定制图像生成开源项目身份保持
FlashFace是一项人物图像个性化生成技术,可在几秒内实现零样本人物图像定制,具有出色的身份保持能力。该技术能精确响应语言提示,并支持灵活调整身份图像和语言提示的控制强度。FlashFace可使用单张或多张参考人脸,对非名人也能有效保持身份特征,同时支持改变人物年龄或性别。
facenet-pytorch - Pytorch下基于预训练模型和快速MTCNN的人脸识别技术
Face RecognitionGithubInception Resnet V1MTCNNPytorchVGGFace2开源项目
facenet-pytorch是一个开源项目,利用Pytorch实现的Inception Resnet (V1)模型,已在VGGFace2和CASIA-Webface上预训练。项目还包括高效的MTCNN实现,用于人脸检测。其特点包括快速人脸检测、生成面部识别嵌入、视频流中的人脸跟踪以及从TensorFlow到Pytorch的参数转换。开发者可以通过简单的安装和使用指引快速集成和应用这些高精度、高性能的预训练模型和工具。
head-pose-estimation - 实时人脸姿态估计,使用ONNX Runtime和OpenCV进行处理
GithubONNX RuntimeOpenCV人脸检测头部姿态估计开源项目面部特征点检测
本项目提供了一个实时的人脸姿态估计解决方案,依赖于ONNX Runtime和OpenCV框架。主要步骤包括人脸检测、68个面部标志点检测以及姿态估计。支持Ubuntu 22.04,提供简单的安装步骤和预训练模型下载链接,使用户可以快速启动并运行。本项目支持视频文件和摄像头输入,提供了详尽的训练指导和代码库,确保了高度的灵活性和扩展性,适合开发和测试用途。
openheygen - 开源AI视频生成工具 支持多语言语音合成和唇形同步
GithubHeyGen开源方案开源项目环境配置视频生成音频克隆
OpenHeyGen是一个基于coqui和video-retalking的开源AI视频生成工具。它能将文本转换为多语言语音,并与原始视频人物唇形精准同步。用户提供原始视频和音频后,即可生成高质量AI视频。该工具支持中文、英语、日语等多种语言,操作简便,为视频内容创作者和开发者提供了创新的技术解决方案。其核心功能包括多语言文本到语音转换、唇形同步技术和视频合成,满足各种AI视频制作需求。
Talk-to-Edit - 基于自然语言的AI人脸精细编辑技术
CelebA-DialogGithubStyleGAN2Talk-to-Edit人脸编辑对话系统开源项目
Talk-to-Edit是一个基于自然语言对话的人脸编辑系统,可精细调整刘海、眼镜、胡须、微笑和年龄等五种面部特征。该系统整合了语言理解和图像生成技术,支持128x128和1024x1024分辨率的图像处理。项目还发布了CelebA-Dialog数据集,为视觉-语言人脸任务研究提供资源。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号