#混合精度

WaveGrad - 高效实现高保真语音生成的WaveGrad技术
WaveGrad声码器高保真生成混合精度并行训练Github开源项目
WaveGrad是Google Brain开发的依托去噪扩散概率模型(DDPM)技术的高保真语音合成工具。这一项目特别适用于高迭代推理,并且能在不同硬件上包括单GPU环境进行稳定高效的训练。其主要特点包括高保真声音生成、多迭代支持及分布式训练功能。预训练模型及灵活架构配置加强了其实用性和适应性。
MS-AMP - Microsoft自动混合精度深度学习工具包
MS-AMP深度学习混合精度MicrosoftFP8-LMGithub开源项目
MS-AMP是由微软开发的自动混合精度工具包,专为深度学习设计。最新版本v0.4.0已发布,详细信息可通过aka.ms/msamp/doc查看。此工具包显著提高人工智能模型训练效率,特别是在FP8大模型训练中表现突出。项目可能包含商标或标志,需遵循微软的商标和品牌使用指南。
accelerate - 简化多设备PyTorch训练的框架
AcceleratePyTorch分布式训练混合精度设备管理Github开源项目
Accelerate是一个轻量级PyTorch训练框架,允许在CPU、GPU、TPU等多种设备上运行原生PyTorch脚本。它自动处理设备分配和混合精度训练,简化了分布式训练流程。研究人员和开发者可专注于模型开发,无需关注底层实现细节,从而加速AI模型的训练和部署。
universal - 高性能自定义算术类型C++模板库
Universal Numbers LibraryC++数值计算混合精度算术库Github开源项目
Universal C++模板库提供自定义算术类型,支持混合精度算法开发。可定制精度和动态范围,优化性能和能效。适用于嵌入式系统和深度学习等领域。仅头文件设计,可替代原生数值类型。
swin - 使用Habana Gaudi实现高效Transformer部署与训练
Optimum HabanaSwin TransformerHuggingface训练开源项目模型混合精度GithubHabana
Optimum Habana是Hugging Face Transformers和Diffusers库与Habana Gaudi处理器之间的接口,提供针对单一和多HPU的高效模型加载、训练和推理工具。该项目包含Swin Transformer模型的GaudiConfig,支持Habana定制的AdamW优化器、梯度剪裁和Torch Autocast混合精度。采用bf16混合精度训练以提升性能,并提供图像分类示例脚本供开发者参考。
qwen - Qwen模型在Habana Gaudi处理器上的配置与训练概述
Optimum Habana开源项目模型GithubHuggingfaceTransformerQwen模型Gaudi处理器混合精度
通过Optimum Habana接口,在Habana Gaudi处理器上实现Qwen模型的高效加载和训练。该接口简化了单个和多个HPU设置下的训练流程,并支持自定义AdamW优化器、梯度剪辑和PyTorch混合精度功能。用户可以通过配置GaudiConfig文件以及特定的HPU训练参数,利用语言模型示例代码,以充分发挥HPUs的性能。更多信息和详细用例请参考Hugging Face的文档及GitHub资源。
llama - Habana Gaudi处理器优化的Hugging Face模型训练框架
混合精度Llama模型开源项目Optimum Habana模型HuggingfaceHPU微调Github
Optimum Habana是一个为Habana Gaudi处理器(HPU)优化的深度学习训练框架,支持Hugging Face Transformers和Diffusers库。该框架提供简单易用的工具,实现模型快速加载、单/多HPU训练和推理。它集成了Habana定制的AdamW实现和梯度裁剪等优化特性,支持PyTorch混合精度训练,为大规模语言模型提供高效的硬件加速训练方案。
vit - 在Habana Gaudi HPU上高效运行ViT模型的配置指南
Optimum Habana开源项目模型GithubHuggingfaceHugging FaceGaudi处理器混合精度图像分类
了解如何使用Habana Gaudi HPU进行ViT模型高效训练和部署,提供如自定义AdamW和融合梯度剪裁等特定训练参数。支持bf16混合精度训练以提升性能和精度。探索Habana HPU在增强Transformer和Diffuser模型方面的应用。