Project Icon

Megatron-DeepSpeed

分布式训练框架助力大规模语言模型预训练

Megatron-DeepSpeed是一个集成DeepSpeed的大规模语言模型预训练框架。它支持多GPU和多节点分布式训练,提供数据预处理、预训练、微调和下游任务评估等完整流程。该框架针对BERT、GPT等模型优化,实现高效大规模训练。集成DeepSpeed的流水线并行和ZeRO-DP技术,进一步提升训练效率和灵活性。

zero_nlp - 中文NLP训练与应用框架
Githubpytorchzero_nlp中文NLP大模型开源项目模型训练
zero_nlp是基于pytorch和transformers的中文NLP框架,支持从数据处理到模型部署的整个工作流程。它特别适用于处理大数据集、训练和部署多卡串联大模型,支持包括gpt2、clip在内的丰富模型类型,适用于文本分类、生成及多模态处理等多种任务。
Finetune_LLMs - 引用数据集微调大型语言模型 (LLM) 的代码
DeepSpeedFinetune LLMsGPTJGithubHuggingfaceNvidia-docker开源项目
Finetune_LLMs 项目提供代码支持DeepSpeed、Lora或QLora方法微调大型语言模型,涵盖从名言数据集学习及利用 Nvidia-docker 简化环境配置,适于需GPU支持的用户。
nanotron - 高效的大规模模型预训练库
GithubNanotronTransformer并行计算开源项目模型预训练深度学习
Nanotron是一个开源的Transformer模型预训练库。它提供灵活API,支持自定义数据集预训练。该库特点包括高性能、可扩展性强,支持3D并行、专家并行、AFAB和1F1B调度策略、ZeRO-1优化器等先进技术。Nanotron适用于大规模模型训练,旨在提高预训练效率。
xFasterTransformer - 高效的大规模语言模型推理优化方案
GithubPython APIXeonxFasterTransformer大语言模型开源项目高性能
xFasterTransformer是一个为X86平台优化的大规模语言模型(LLM)推理解决方案,支持多插槽和节点的分布式运行,适用于大型模型推理。它提供C++和Python API,支持例如ChatGLM、Llama、Baichuan等流行的LLM模型,并可通过PyPI、Docker或从源代码进行安装。项目附带详细文档、API使用示例、基准测试代码和Web演示,确保用户能充分利用其高性能和高扩展性。
Mixture-of-depths - Transformer语言模型的动态计算资源分配方法
GithubMixture-of-Depths开源项目模型实现深度学习语言模型
Mixture-of-depths是一种Transformer语言模型优化方法,通过动态分配计算资源提高性能。该项目提供Mistral、Mixtral、LLama等多个主流模型的非官方实现。项目支持高级API接口,兼容transformers库,便于研究应用。这种方法旨在提升模型推理效率和灵活性,同时保持输出质量。
OpenRLHF - 高性能强化学习框架助力大规模语言模型优化
GithubOpenRLHFRLHF框架分布式训练开源项目强化学习模型微调
OpenRLHF是一款基于Ray、DeepSpeed和Hugging Face Transformers构建的高性能强化学习框架。该框架简单易用,兼容Hugging Face模型和数据集,性能优于优化后的DeepSpeedChat。它支持分布式RLHF,能够在多GPU环境下进行70B+参数模型的全规模微调。OpenRLHF集成了多项PPO实现技巧以提升训练稳定性,同时支持vLLM生成加速和多奖励模型等先进特性,为大规模语言模型优化提供了强大支持。
distilbert-base-uncased - 紧凑高效的语言模型,提升下游任务处理速度
DistilBERTGithubHuggingface使用限制开源项目模型模型压缩训练数据语言模型
DistilBERT是一种高效的Transformers模型,比原始BERT更小更快,适合快速推理的下游任务。通过自监督预训练,它支持掩码语言建模和句子预测。主要用于全句任务如分类和问答,尽管继承了部分原模型偏见。在海量公开数据的支持下,DistilBERT在多种任务中表现优异,兼顾性能和速度。可在模型中心查看微调版本。
tevatron - 神经检索模型训练与推理工具
GithubHuggingFaceLLM神经检索模型LoRA微调Mistral-7BTevatron开源项目
Tevatron提供高效工具包,支持在GPU和TPU上大规模训练和推理神经检索模型,集成DeepSpeed和LoRA等技术,可加载HuggingFace的预训练模型,适用于神经检索和开放域QA任务。
ColossalAI - 提升大型AI模型训练的效率和可访问性
AI加速Colossal-AIGithub人工智能分布式训练大模型并行训练开源项目热门
Colossal-AI致力于使大型AI模型的训练更加经济、快速且易于获取。通过支持多种并行策略,包括数据并行、流水线并行、张量并行和序列并行,Colossal-AI可以大幅提高大规模模型训练的速度。此外,还集成了异构训练和零冗余优化器技术,使得在多GPU集群上的训练过程更加高效和灵活。Colossal-AI通过这些先进的功能,已被广泛应用于生产和研究场景,显著推动了AI技术的进步和应用。
dgl - 图深度学习框架加速图神经网络应用与研究
DGLGithub分布式训练图神经网络大规模图开源项目深度学习
DGL是一个高效易用的Python包,支持在图上执行深度学习。兼容PyTorch、Apache MXNet和TensorFlow等多种框架,提供GPU加速的图库、丰富的GNN模型示例、全面的教学材料及优化的分布式训练功能。适合从研究人员到行业专家的各类用户。广泛应用于学术及实践领域,无论是基础教学还是高级图分析,DGL均能有效支持。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

问小白

问小白是一个基于 DeepSeek R1 模型的智能对话平台,专为用户提供高效、贴心的对话体验。实时在线,支持深度思考和联网搜索。免费不限次数,帮用户写作、创作、分析和规划,各种任务随时完成!

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

Trae

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号