Logo

#GPU训练

DIGITS入门指南 - 深度学习GPU训练系统

1 个月前
Cover of DIGITS入门指南 - 深度学习GPU训练系统

min-max-gpt: 极简实现的大规模GPT训练框架

2 个月前
Cover of min-max-gpt: 极简实现的大规模GPT训练框架

wyGPT: Wang Yi的高性能GPT模型实现

2 个月前
Cover of wyGPT: Wang Yi的高性能GPT模型实现

DIGITS: NVIDIA的深度学习GPU训练系统

2 个月前
Cover of DIGITS: NVIDIA的深度学习GPU训练系统

Dreambooth-Stable-Diffusion入门学习资料汇总 - 使用少量样本图像个性化Stable Diffusion模型

1 个月前
Cover of Dreambooth-Stable-Diffusion入门学习资料汇总 - 使用少量样本图像个性化Stable Diffusion模型

hlb-CIFAR10:打破CIFAR-10数据集训练速度记录的开创性项目

2 个月前
Cover of hlb-CIFAR10:打破CIFAR-10数据集训练速度记录的开创性项目

深入解析Andrej Karpathy的llm.c项目:用C语言实现大语言模型训练

2 个月前
Cover of 深入解析Andrej Karpathy的llm.c项目:用C语言实现大语言模型训练

Dreambooth-Stable-Diffusion: 个性化AI图像生成的革命性技术

2 个月前
Cover of Dreambooth-Stable-Diffusion: 个性化AI图像生成的革命性技术

相关项目

Project Cover
Dreambooth-Stable-Diffusion
Dreambooth-Stable-Diffusion项目是一个平台,支持用户在多种环境如Vast.ai、Google Colab以及本地计算机上训练AI模型。该工具适用于电影制作人、概念艺术家和设计师,用于创建和训练个性化角色和风格。项目同时提供详尽的设置指南和教程,支持多种操作环境,旨在提高工作效率和用户体验。
Project Cover
DIGITS
DIGITS是一个支持Caffe、Torch和Tensorflow框架的深度学习模型训练Web应用,提供详尽的用户文档和实用案例,支持Ubuntu 14.04和16.04操作系统,专为研究人员和开发者设计。
Project Cover
llm.c
llm.c是一个使用纯C和CUDA实现的高效轻量级语言模型训练框架。该项目不依赖PyTorch或cPython等大型框架,通过简洁代码实现GPT-2和GPT-3系列模型的预训练。llm.c支持单GPU、多GPU和多节点训练,提供详细教程和实验示例。项目在保持代码可读性的同时追求高性能,适用于教育和实际应用。此外,llm.c支持多种硬件平台,并有多个编程语言的移植版本。
Project Cover
wyGPT
wyGPT是一个开源的GPT模型项目,专注于单GPU环境下的高效训练和推理。提供命令行工具,支持PubMed和中文预训练模型的微调和文本生成。项目包含示例数据和使用说明,是自然语言处理研究和开发的实用工具。
Project Cover
hlb-CIFAR10
hlb-CIFAR10是一个专注于快速训练CIFAR-10数据集的开源项目。该项目在单GPU上实现了世界纪录级的训练速度,目前可在A100 GPU上在约6.3秒内完成训练。项目基于David Page的实现进行了优化,包括自定义架构、超参数调优和内存格式改进。代码设计简洁,易于理解和修改,适合研究人员进行快速实验和创新。项目目标是在未来1-2年内将训练时间进一步缩短到2秒以内。
Project Cover
min-max-gpt
min-max-gpt是一个针对大规模GPT模型训练优化的开源项目。该框架集成了muP初始化、混合精度训练、FSDP和DeepSpeed Zero-3等技术,并提供了不依赖Hugging Face的训练选项。这使得研究人员和开发者能够更灵活地控制训练过程。项目已在8块80GB A100 GPU上成功训练20B参数模型,展现了其在大规模语言模型训练方面的能力。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号