#GPU训练
Dreambooth-Stable-Diffusion
Dreambooth-Stable-Diffusion项目是一个平台,支持用户在多种环境如Vast.ai、Google Colab以及本地计算机上训练AI模型。该工具适用于电影制作人、概念艺术家和设计师,用于创建和训练个性化角色和风格。项目同时提供详尽的设置指南和教程,支持多种操作环境,旨在提高工作效率和用户体验。
DIGITS
DIGITS是一个支持Caffe、Torch和Tensorflow框架的深度学习模型训练Web应用,提供详尽的用户文档和实用案例,支持Ubuntu 14.04和16.04操作系统,专为研究人员和开发者设计。
llm.c
llm.c是一个使用纯C和CUDA实现的高效轻量级语言模型训练框架。该项目不依赖PyTorch或cPython等大型框架,通过简洁代码实现GPT-2和GPT-3系列模型的预训练。llm.c支持单GPU、多GPU和多节点训练,提供详细教程和实验示例。项目在保持代码可读性的同时追求高性能,适用于教育和实际应用。此外,llm.c支持多种硬件平台,并有多个编程语言的移植版本。
wyGPT
wyGPT是一个开源的GPT模型项目,专注于单GPU环境下的高效训练和推理。提供命令行工具,支持PubMed和中文预训练模型的微调和文本生成。项目包含示例数据和使用说明,是自然语言处理研究和开发的实用工具。
hlb-CIFAR10
hlb-CIFAR10是一个专注于快速训练CIFAR-10数据集的开源项目。该项目在单GPU上实现了世界纪录级的训练速度,目前可在A100 GPU上在约6.3秒内完成训练。项目基于David Page的实现进行了优化,包括自定义架构、超参数调优和内存格式改进。代码设计简洁,易于理解和修改,适合研究人员进行快速实验和创新。项目目标是在未来1-2年内将训练时间进一步缩短到2秒以内。
min-max-gpt
min-max-gpt是一个针对大规模GPT模型训练优化的开源项目。该框架集成了muP初始化、混合精度训练、FSDP和DeepSpeed Zero-3等技术,并提供了不依赖Hugging Face的训练选项。这使得研究人员和开发者能够更灵活地控制训练过程。项目已在8块80GB A100 GPU上成功训练20B参数模型,展现了其在大规模语言模型训练方面的能力。
magnum-v2-12b-gguf
基于Mistral-Nemo-Base-2407开发的GGUF量化语言模型,通过复制Claude 3系列的文本生成能力,实现多语言对话功能。模型采用ChatML格式训练,整合多个数据集,经由8块H100 GPU完成双轮训练,具备自然流畅的语言交互表现。