#MosaicML

composer - 适用于大规模模型的高效深度学习训练框架
MosaicMLComposer深度学习分布式训练PyTorchGithub开源项目
Composer 是 MosaicML 开发的开源深度学习训练库,基于 PyTorch 构建,专为大规模模型的高效训练设计。支持语言模型、扩散模型和卷积神经网络等,简化了并行化配置、数据加载、自动恢复和内存优化。该库帮助用户快速进行深度学习实验和模型训练。
mpt-7b-instruct - 短指令学习模型MPT-7B-Instruct优化人工智能响应
训练效率MosaicMLMPT-7B-Instruct模型架构模型Github开源项目短文本指令Huggingface
MPT-7B-Instruct模型基于MPT-7B,通过微调Dolly-15k和HH-RLHF数据集,提升人工智能在短指令执行上的效率与准确性。其采用修改后的Transformer架构,支持FlashAttention及ALiBi等高效训练选项,便利多种应用场景。MosaicML支持其在商业项目中的应用,但需注意可能存在的偏见或不准确信息,依据Apache 2.0许可使用。
mpt-7b-chat - 对MPT-7B-Chat模型的优化及其在开源LLaMA对话生成中的进展
Transformer开源项目MosaicML模型对话生成Huggingface开源MPT-7B-ChatGithub
MPT-7B-Chat是MosaicML开发的对话生成模型,通过微调著名数据集提高生成效果,采用去掉位置嵌入的改进型解码器架构及FlashAttention、ALiBi等创新技术,支持较长序列训练与微调。此模型在MosaicML平台研发,可通过MosaicML与Hugging Face加载,尽管输出可能包含错误或偏见,仍为开发者提供了一个开源的对话生成提升工具。
replit-code-v1_5-3b - 代码补全的多编程语言支持模型
Replit Code v1.5transformersMosaicML开源项目模型GithubHuggingface代码补全编程语言
Replit Code v1.5是具备3.3B参数的新型语言模型,专注于代码补全功能,支持30种编程语言,包括Java、Python和C++。在MosaicML平台上训练,利用特制的GPTNeoX分词器和优化词汇表处理1万亿代码代币。该模型适合商用及作为特定应用的基础模型模块。