#DeepSpeed

DeepSpeed入门学习资料汇总-深度学习优化软件套件

2 个月前
Cover of DeepSpeed入门学习资料汇总-深度学习优化软件套件

XTuner入门指南 - 高效灵活的大语言模型微调工具包

2 个月前
Cover of XTuner入门指南 - 高效灵活的大语言模型微调工具包

大型语言模型(LLM)微调技术:原理、方法与最佳实践

3 个月前
Cover of 大型语言模型(LLM)微调技术:原理、方法与最佳实践

RWKV-infctx-trainer: 突破长文本训练限制的创新工具

3 个月前
Cover of RWKV-infctx-trainer: 突破长文本训练限制的创新工具

DeeperSpeed:为GPT-NeoX定制的高效分布式深度学习训练库

3 个月前
Cover of DeeperSpeed:为GPT-NeoX定制的高效分布式深度学习训练库

X-Flux:为FLUX模型提供强大的微调和推理能力

3 个月前
Cover of X-Flux:为FLUX模型提供强大的微调和推理能力

Open-ChatGPT:开源实现ChatGPT的全流程框架

3 个月前
Cover of Open-ChatGPT:开源实现ChatGPT的全流程框架

大型语言模型微调技术全解析:从理论到实践

3 个月前
Cover of 大型语言模型微调技术全解析:从理论到实践

DeepSpeed: 加速大规模深度学习模型训练和推理的开源优化库

3 个月前
Cover of DeepSpeed: 加速大规模深度学习模型训练和推理的开源优化库

XTuner: 高效灵活的大语言模型微调工具包

3 个月前
Cover of XTuner: 高效灵活的大语言模型微调工具包
相关项目
Project Cover

DeepSpeed

DeepSpeed是一个先进的深度学习优化工具库,专门设计用于简化和增强分布式训练。通过一系列创新技术,如ZeRO、3D并行处理、MoE和ZeRO-Infinity,DeepSpeed能大幅提高训练速度,同时降低成本。这些技术支持在数千GPU上扩展模型训练,并实现低延迟和高吞吐量的推理性能。DeepSpeed同时提供了先进的模型压缩技术,优化模型存储与推理效率,是大规模AI模型训练和推理的优选方案。

Project Cover

xtuner

XTuner是一款高效灵活的大模型微调工具包,支持LLM和VLM在多种GPU上的预训练和微调。它能够在单个8GB GPU上微调7B模型,并支持超过70B模型的多节点微调。XTuner兼容DeepSpeed,支持多种优化技术,并涵盖多种微调方法如QLoRA和LoRA。该工具包提供连续预训练、指令微调和代理微调等功能,输出模型可以无缝集成到部署和评估工具中,适应多种应用场景。

Project Cover

DeepSpeed

DeepSpeed 是一个深度学习优化软件套件,专为大规模模型训练和推理设计,能显著优化系统性能和降低成本。它支持亿级至万亿级参数的高效管理,兼容各种计算环境,从资源受限的GPU系统到庞大的GPU集群。此外,DeepSpeed 在模型压缩和推理领域亦取得创新成就,提供极低的延迟和极高的处理速率。

Project Cover

Finetune_LLMs

Finetune_LLMs 项目提供代码支持DeepSpeed、Lora或QLora方法微调大型语言模型,涵盖从名言数据集学习及利用 Nvidia-docker 简化环境配置,适于需GPU支持的用户。

Project Cover

open-chatgpt

Open-ChatGPT是一个开源库,能够使用个人数据和最少的计算资源训练个性化的ChatGPT模型。该库提供端到端训练框架,支持分布式训练和卸载,适用于使用DeepSpeed和RLHF技术训练的模型。项目还包括Stanford Alpaca Lora的最新实现,并提供丰富的公开指令调整和RLHF数据集,便于开发者和研究人员使用。

Project Cover

SwissArmyTransformer

SwissArmyTransformer是一个灵活且强大的库,用于开发和优化各种Transformer变体模型,如BERT、GPT、T5等。该库通过轻量级混合组件支持多种用途,并结合DeepSpeed-ZeRO和模型并行技术,提供了大规模模型预训练和微调的最佳实践。只需几行代码即可实现前缀调优和缓存自动回归模型,适用于大规模分布式训练和高效推理。

Project Cover

gpt-neox

GPT-NeoX是EleutherAI开发的库,专注于在GPU上训练大规模语言模型。它基于NVIDIA的Megatron,并结合了DeepSpeed技术,提供前沿的架构创新和优化,支持多种系统和硬件环境。广泛应用于学术界、工业界和政府实验室,支持AWS、CoreWeave、ORNL Summit等多个平台。主要功能包括分布式训练、3D并行、旋转和嵌入技术,以及与Hugging Face等开源库的无缝集成。

Project Cover

x-flux

该项目为Flux图像生成模型提供LoRA和ControlNet微调脚本。使用DeepSpeed实现高效训练,并提供预训练检查点。包含详细的训练和推理指南,以及低内存模式和加速配置示例。项目计划未来发布更多ControlNet权重模型和IP-Adapters。

Project Cover

DeeperSpeed

DeeperSpeed是DeepSpeed库的分支,专为EleutherAI的GPT-NeoX项目优化。该项目提供两个版本:1.0版保留了训练GPT-NeoX-20B和Pythia Suite所用的稳定版本,2.0版则基于最新DeepSpeed构建并持续更新。DeeperSpeed通过优化训练流程,提高了大型语言模型的开发效率。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号