Project Icon

FastDiff

高效生成高保真语音的快速条件扩散模型

FastDiff项目实现了一种高效生成高保真语音的条件扩散模型。该项目在GitHub上提供了开源实现和预训练模型,支持包括LJSpeech、LibriTTS和VCTK在内的多种数据集。适用于语音合成和神经语音编解码等任务,并支持多GPU并行训练。项目还提供了详细的推理和训练指南,以及预处理工具和训练配置示例。FastDiff代码参考了NATSpeech和Tacotron2等项目,广泛适用于研究和实际应用。

DiffGesture - 音频驱动协同语音手势生成的扩散模型框架
AI动画Github开源项目扩散模型计算机视觉语音驱动手势生成跨模态学习
DiffGesture是一个基于扩散模型的框架,旨在生成与音频同步的协同语音手势。该框架通过扩散条件生成过程和音频-手势变换器捕捉跨模态关联,并使用手势稳定器和无分类器引导保持时间一致性。DiffGesture生成的手势具有良好的模式覆盖和音频相关性,在多个数据集上展现出优秀性能。
modular-diffusion - 灵活可扩展的PyTorch扩散模型框架
GithubModular DiffusionPyTorch开源项目扩散模型机器学习模块化设计
Modular Diffusion是一个基于PyTorch的模块化扩散模型框架,为设计和训练自定义扩散模型提供了简洁的API。该框架支持多种噪声类型、调度类型、去噪网络和损失函数,并提供了预构建模块库。Modular Diffusion适用于图像生成和非自回归文本合成等多种应用场景,适合AI研究人员和爱好者使用。其模块化设计简化了新型扩散模型的创建和实验过程。
custom-diffusion - 文本到图像扩散模型微调方法
Custom DiffusionGithubStable Diffusion图像生成多概念定制开源项目文本到图像扩散模型
该项目提供了一种高效的文本到图像扩散模型微调方法。只需调整部分模型参数,即可在短时间内完成训练,并减少存储需求。项目还支持多概念组合,附带新数据集和完整的训练步骤。适用于多种类别和应用场景。
Live2Diff - 革新视频扩散模型的实时流翻译技术
AI模型GithubLive2Diff实时流处理开源项目扩散模型视频翻译
Live2Diff是一款基于视频扩散模型的实时流翻译工具。该项目采用单向时间注意力机制,结合多时间步KV缓存和深度先验技术,实现高效的视频处理。支持DreamBooth和LoRA风格迁移,并通过TensorRT优化性能。在512x512分辨率下,处理速度可达16.43 FPS,为实时视频翻译领域提供了新的技术方案。
Diff-HierVC - 分层扩散模型实现高质量零样本语音转换
Diff-HierVCGithub开源项目扩散模型语音转换零样本说话人适应音高生成
Diff-HierVC是一种分层语音转换系统,采用DiffPitch和DiffVoice两个扩散模型。DiffPitch生成目标音高,DiffVoice转换语音风格。系统还使用源滤波器编码器和掩蔽先验技术,提高语音风格迁移和说话人适应能力。在零样本语音转换中,Diff-HierVC实现0.83%字错率和3.29%等错率,展现出色的音高生成和语音风格迁移性能。
tree-diffusion - 基于扩散模型的语法树生成框架
GithubPython依赖Tree Diffusion开源项目模型权重训练评估
Tree Diffusion 是一个开源的深度学习框架,专注于高效生成语法树。该框架结合了扩散模型和变异策略,能在复杂语法约束下快速生成有效的树结构。项目提供完整代码库、预训练模型和使用指南,支持多种编程语言和自定义语法。Tree Diffusion 在程序合成、代码生成和自然语言处理等领域具有广泛应用前景,为研究人员和开发者提供了强大的工具。
stable-fast - 优化HuggingFace Diffusers推理性能的轻量级框架
CUDADiffusersGithubPyTorchStable FastTorchScript开源项目
stable-fast是一个优化HuggingFace Diffusers推理性能的轻量级框架,支持NVIDIA GPU。相比TensorRT和AITemplate需要几十分钟的编译时间,stable-fast仅需几秒钟即可完成模型编译。主要特色包括动态形状、低精度计算和多种算子融合。它还兼容ControlNet和LoRA,并支持最新的StableVideoDiffusionPipeline,是加速PyTorch推理的有效工具。
video-diffusion-pytorch - 开源项目实现文本到视频生成新突破
GithubPytorchU-net开源项目文本到视频深度学习视频生成
video-diffusion-pytorch项目实现了基于扩散模型的文本到视频生成技术。该开源项目采用时空分解U-net结构,将2D图像生成扩展至3D视频领域。支持文本条件生成、BERT编码和批量训练等功能。目前在移动MNIST数据集上表现良好,为研究人员和开发者提供了探索视频生成新前沿的工具。该技术有望在复杂视频生成任务中取得进展。
onediff - 扩散模型加速库
ComfyUIGPU加速GithubHF diffusersPyTorchonediff开源项目
onediff提供开箱即用的扩散模型加速库,支持HF diffusers和ComfyUI。具备PyTorch代码编译及优化GPU内核,提升速度可达1.7倍。支持SD、SVD、LoRA等算法,兼容多种NVIDIA GPU。网站提供详细的安装与使用指南、性能对比及质量评估,适用于生产环境。了解更多关于onediff的加速方法和最新更新,以及详细的架构与功能特点。
StreamDiffusion - 高性能实时AI图像生成框架
AI绘图GithubStreamDiffusion图像处理实时生成开源项目深度学习
StreamDiffusion是一个开源的高性能AI图像生成框架,专为实时交互应用设计。它采用流批处理、残差无分类引导等创新技术,大幅提升了扩散模型的生成速度。在RTX 4090显卡上,使用SD-turbo模型可实现每秒106帧的文生图速度,LCM-LoRA与KohakuV2模型组合也能达到每秒38帧。该项目为开发实时AI图像生成应用提供了有力支持。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号