Composer: 加速深度学习模型训练的开源框架

Ray

Composer简介

Composer是MosaicML公司开发的一个开源深度学习训练库,旨在简化大规模分布式训练工作流程,提高模型训练效率。它基于PyTorch构建,集成了许多最佳实践,使研究人员和工程师能够更轻松地进行大规模模型训练。

Composer Logo

Composer的设计理念是"可扩展性和易用性的优化"。它抽象了底层的复杂性,如并行化技术、分布式数据加载和内存优化等,让用户可以专注于模型训练和实验,而不会因技术细节而减慢速度。

Composer的主要特性

1. 卓越的可扩展性

无论您是在单个GPU上训练,还是在512个GPU上训练,无论是处理50MB还是10TB的数据,Composer都能保持工作流程的简单性。它支持以下关键功能:

  • FSDP(完全分片数据并行): 对于大型模型,Composer集成了PyTorch的FullyShardedDataParallelism,使自定义模型的并行化变得简单高效。

  • 弹性分片检查点: 支持在不同数量的GPU之间保存和恢复模型状态,提高了灵活性。

  • 数据流式处理: 与MosaicML StreamingDataset集成,支持从云存储中动态下载和处理大型数据集。

2. 高度可定制性

Composer提供了简单的方法来定制训练过程,以满足特定需求:

  • 回调系统: 允许用户在训练循环的任何点插入自定义逻辑。例如,可以用于监控内存使用、记录和可视化图像等。

  • 加速算法: 提供了一系列算法加速技术,可以组合使用以提高训练速度。例如,在ImageNet上训练ResNet-50的速度提高了7倍。

3. 优化的工作流程

Composer旨在自动化低级痛点,让用户专注于深度学习的重要(和有趣)部分:

  • 自动恢复: 训练中断?只需重新运行代码,Composer会自动从最新的检查点恢复。

  • CUDA内存溢出预防: 将microbatch大小设置为"auto",Composer会自动选择适合GPU的最大批量。

  • 时间抽象: 使用自定义单位(epochs、batches、samples和tokens)在训练循环中指定持续时间。

4. 广泛的集成

Composer与许多流行的工具和平台集成,用于实验跟踪和数据流处理:

  • 云集成: 检查点和日志功能原生支持远程存储和从云存储桶加载(OCI、GCP、AWS S3)。

  • 实验跟踪: 支持Weights and Biases、MLFlow、CometML和neptune.ai等平台。

使用Composer

安装

Composer可以通过pip安装:

pip install mosaicml

为简化环境设置,MosaicML还提供了一系列预构建的Docker镜像。强烈建议使用这些Docker镜像。

快速开始

以下是一个使用Composer训练MNIST数据集的简单示例:

import torch
import torch.nn as nn
import torch.nn.functional as F
from torchvision import datasets, transforms
from torch.utils.data import DataLoader

from composer import Trainer
from composer.models import ComposerClassifier
from composer.algorithms import LabelSmoothing, CutMix, ChannelsLast

class Model(nn.Module):
    """用于MNIST的简单卷积神经网络架构"""

    def __init__(self, num_classes: int = 10):
        super().__init__()

        self.num_classes = num_classes

        self.conv1 = nn.Conv2d(1, 16, (3, 3), padding=0)
        self.conv2 = nn.Conv2d(16, 32, (3, 3), padding=0)
        self.bn = nn.BatchNorm2d(32)
        self.fc1 = nn.Linear(32 * 16, 32)
        self.fc2 = nn.Linear(32, num_classes)

    def forward(self, x):
        out = self.conv1(x)
        out = F.relu(out)
        out = self.conv2(out)
        out = self.bn(out)
        out = F.relu(out)
        out = F.adaptive_avg_pool2d(out, (4, 4))
        out = torch.flatten(out, 1, -1)
        out = self.fc1(out)
        out = F.relu(out)
        return self.fc2(out)

transform = transforms.Compose([transforms.ToTensor()])
dataset = datasets.MNIST("data", train=True, download=True, transform=transform)
train_dataloader = DataLoader(dataset, batch_size=128)

trainer = Trainer(
    model=ComposerClassifier(module=Model(), num_classes=10),
    train_dataloader=train_dataloader,
    max_duration="2ep",
    algorithms=[
        LabelSmoothing(smoothing=0.1),
        CutMix(alpha=1.0),
        ChannelsLast(),
    ],
)
trainer.fit()

这个例子展示了Composer的核心功能:

  1. 定义一个简单的PyTorch模型
  2. 设置数据加载器
  3. 使用Composer的Trainer类配置训练过程
  4. 应用一些加速算法
  5. 开始训练

Composer在实际项目中的应用

Composer已在多个大型项目中得到应用,展示了其在实际场景中的强大能力:

  1. MPT基础系列: 这是一系列商业可用的开源大语言模型(LLMs),使用Composer进行优化训练。包括MPT-7B、MPT-7B-8k和MPT-30B等模型。

  2. Mosaic扩散模型: 使用Composer,研究人员能够以不到$50,000的成本从头训练一个稳定扩散模型,相比原始成本节省了近70%。

  3. replit-code-v1-3b: 这是一个专注于代码补全的2.7B因果语言模型,由Replit使用Mosaic AI训练平台在10天内训练完成。

  4. BabyLLM: 这是第一个同时支持阿拉伯语和英语的LLM。这个7B参数的模型由MetaDialog在世界最大的阿拉伯语/英语数据集上训练,旨在改善客户支持工作流程。

  5. BioMedLM: 这是MosaicML和斯坦福CRFM合作开发的生物医学领域专用LLM。

这些项目展示了Composer在各种规模和领域的模型训练中的versatility和效率。从相对较小的专业模型到大规模的通用语言模型,Composer都能提供强大的支持。

结论

Composer作为一个开源的深度学习训练框架,为研究人员和工程师提供了一个强大而灵活的工具,以简化大规模模型训练过程。它的核心优势在于:

  1. 卓越的可扩展性,支持从单GPU到大规模集群的无缝过渡
  2. 高度的可定制性,允许用户根据需求调整训练过程
  3. 优化的工作流程,自动化许多低级任务
  4. 广泛的集成支持,与主流工具和平台兼容

通过使用Composer,用户可以显著提高训练效率,减少开发时间,并更容易地进行大规模实验。无论是在学术研究还是工业应用中,Composer都展现出了巨大的潜力。

随着深度学习领域的不断发展,像Composer这样的工具将在推动技术进步和实现更高效的AI模型训练中扮演越来越重要的角色。我们期待看到更多基于Composer的创新应用和突破性研究成果。

🔗 相关链接:

avatar
0
0
0
相关项目
Project Cover

composer

Composer 是 MosaicML 开发的开源深度学习训练库,基于 PyTorch 构建,专为大规模模型的高效训练设计。支持语言模型、扩散模型和卷积神经网络等,简化了并行化配置、数据加载、自动恢复和内存优化。该库帮助用户快速进行深度学习实验和模型训练。

Project Cover

mpt-7b-instruct

MPT-7B-Instruct模型基于MPT-7B,通过微调Dolly-15k和HH-RLHF数据集,提升人工智能在短指令执行上的效率与准确性。其采用修改后的Transformer架构,支持FlashAttention及ALiBi等高效训练选项,便利多种应用场景。MosaicML支持其在商业项目中的应用,但需注意可能存在的偏见或不准确信息,依据Apache 2.0许可使用。

Project Cover

mpt-7b-chat

MPT-7B-Chat是MosaicML开发的对话生成模型,通过微调著名数据集提高生成效果,采用去掉位置嵌入的改进型解码器架构及FlashAttention、ALiBi等创新技术,支持较长序列训练与微调。此模型在MosaicML平台研发,可通过MosaicML与Hugging Face加载,尽管输出可能包含错误或偏见,仍为开发者提供了一个开源的对话生成提升工具。

Project Cover

replit-code-v1_5-3b

Replit Code v1.5是具备3.3B参数的新型语言模型,专注于代码补全功能,支持30种编程语言,包括Java、Python和C++。在MosaicML平台上训练,利用特制的GPTNeoX分词器和优化词汇表处理1万亿代码代币。该模型适合商用及作为特定应用的基础模型模块。

最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号