#GPU训练
Dreambooth-Stable-Diffusion - 使用Dreambooth-Stable-Diffusion进行个性化AI训练的指南
DreamboothJoePenna稳定扩散GPU训练影像生成Github开源项目
Dreambooth-Stable-Diffusion项目是一个平台,支持用户在多种环境如Vast.ai、Google Colab以及本地计算机上训练AI模型。该工具适用于电影制作人、概念艺术家和设计师,用于创建和训练个性化角色和风格。项目同时提供详尽的设置指南和教程,支持多种操作环境,旨在提高工作效率和用户体验。
DIGITS - 深度学习模型训练的专用Web应用工具
DIGITS深度学习NVIDIAGPU训练tensorflowGithub开源项目
DIGITS是一个支持Caffe、Torch和Tensorflow框架的深度学习模型训练Web应用,提供详尽的用户文档和实用案例,支持Ubuntu 14.04和16.04操作系统,专为研究人员和开发者设计。
llm.c - 纯C和CUDA实现的高效轻量级语言模型训练框架
LLMC语言CUDAGPU训练开源项目Github
llm.c是一个使用纯C和CUDA实现的高效轻量级语言模型训练框架。该项目不依赖PyTorch或cPython等大型框架,通过简洁代码实现GPT-2和GPT-3系列模型的预训练。llm.c支持单GPU、多GPU和多节点训练,提供详细教程和实验示例。项目在保持代码可读性的同时追求高性能,适用于教育和实际应用。此外,llm.c支持多种硬件平台,并有多个编程语言的移植版本。
wyGPT - 单GPU高性能GPT模型训练推理工具
wyGPTGPU训练EGFR基因突变非小细胞肺癌生存分析Github开源项目
wyGPT是一个开源的GPT模型项目,专注于单GPU环境下的高效训练和推理。提供命令行工具,支持PubMed和中文预训练模型的微调和文本生成。项目包含示例数据和使用说明,是自然语言处理研究和开发的实用工具。
hlb-CIFAR10 - 单GPU上CIFAR-10数据集训练的世界纪录级深度学习模型
CIFAR10神经网络深度学习GPU训练超快速训练Github开源项目
hlb-CIFAR10是一个专注于快速训练CIFAR-10数据集的开源项目。该项目在单GPU上实现了世界纪录级的训练速度,目前可在A100 GPU上在约6.3秒内完成训练。项目基于David Page的实现进行了优化,包括自定义架构、超参数调优和内存格式改进。代码设计简洁,易于理解和修改,适合研究人员进行快速实验和创新。项目目标是在未来1-2年内将训练时间进一步缩短到2秒以内。
min-max-gpt - 为大规模GPT模型训练优化的开源框架
minGPTGPU训练深度学习分布式训练大规模模型Github开源项目
min-max-gpt是一个针对大规模GPT模型训练优化的开源项目。该框架集成了muP初始化、混合精度训练、FSDP和DeepSpeed Zero-3等技术,并提供了不依赖Hugging Face的训练选项。这使得研究人员和开发者能够更灵活地控制训练过程。项目已在8块80GB A100 GPU上成功训练20B参数模型,展现了其在大规模语言模型训练方面的能力。
magnum-v2-12b-gguf - 基于Claude 3优化的量化多语言聊天模型
GPU训练微调HuggingfaceMagnum开源项目模型Github语言模型ChatML
基于Mistral-Nemo-Base-2407开发的GGUF量化语言模型,通过复制Claude 3系列的文本生成能力,实现多语言对话功能。模型采用ChatML格式训练,整合多个数据集,经由8块H100 GPU完成双轮训练,具备自然流畅的语言交互表现。
相关文章
Dreambooth-Stable-Diffusion: 个性化AI图像生成的革命性技术
3 个月前
DIGITS: NVIDIA的深度学习GPU训练系统
3 个月前
深入解析Andrej Karpathy的llm.c项目:用C语言实现大语言模型训练
3 个月前
wyGPT: Wang Yi的高性能GPT模型实现
3 个月前
hlb-CIFAR10:打破CIFAR-10数据集训练速度记录的开创性项目
3 个月前
min-max-gpt: 极简实现的大规模GPT训练框架
3 个月前
Dreambooth-Stable-Diffusion入门学习资料汇总 - 使用少量样本图像个性化Stable Diffusion模型
2 个月前
DIGITS入门指南 - 深度学习GPU训练系统
2 个月前