Project Icon

Megatron-LM

优化GPU训练技术 加速大规模Transformer模型

Megatron-LM框架利用GPU优化技术实现Transformer模型的大规模训练。其Megatron-Core组件提供模块化API和系统优化,支持自定义模型训练。该项目可进行BERT、GPT、T5等模型预训练,支持数千GPU分布式训练百亿参数级模型,并提供数据预处理、模型评估和下游任务功能。

ctransformers - Python接口的高效C/C++ Transformer模型
CTransformersGGMLGithubLangChainPythonTransformer模型开源项目
CTransformers提供Python接口,通过GGML库高效加载和运行C/C++实现的Transformer模型。支持多种模型类型,如GPT-2、GPT-J、LLaMA等,并可与Hugging Face和LangChain集成。提供CUDA、ROCm和Metal兼容的GPU加速选项,适合高性能自然语言处理任务。
gemma-2B-10M - Gemma 2B模型实现1000万token上下文处理 仅需32GB内存
Gemma 2BGithub内存优化局部注意力开源项目推理优化长上下文
gemma-2B-10M项目采用递归局部注意力机制,在32GB内存限制下实现了处理1000万token上下文的能力。该项目为Gemma 2B模型提供CUDA优化的推理功能,显著提升了处理效率。项目设计简洁易用,便于开发者快速应用。虽然目前处于早期阶段,但在长文本处理领域展现出巨大潜力,有望推动相关技术的进步。
ByteTransformer - 为BERT类Transformer优化的高性能推理库
BERTByteTransformerGithubNVIDIA GPUTransformer开源项目高性能
ByteTransformer是一个为BERT类Transformer优化的高性能推理库,支持Python和C++ API,兼容固定长度和可变长度Transformer。通过对BERT例程中的QKV编码、软最大值、前馈网络、激活、层归一化和多头注意力机制进行优化,ByteTransformer为字节跳动的内部推理系统提升了性能。基准测试结果显示,相较于PyTorch、TensorFlow、FasterTransformer和DeepSpeed,ByteTransformer在A100 GPU上的推理速度更快。
llm-analysis - 大型语言模型训练与推理的延迟和内存使用分析工具
GithubTransformer模型llm-analysis内存分析大语言模型延迟分析开源项目
llm-analysis 是一款为大型语言模型(LLMs),如Transformer设计的工具,用于在不同的模型、GPU、数据类型和并行配置下估算训练与推理的延迟和内存使用。通过简单设置,可以快速计算出不同训练和推理方案的系统性能,以确定最优和可行的配置方案。此外,llm-analysis 支持多种并行化和重计算策略,并提供多种预定义配置和命令行接口,极大简化了配置和调试流程。它功能强大且易于集成,是开发和优化LLMs的理想工具。
TransformerEngine - 用于在 NVIDIA GPU 上加速 Transformer 模型的库
FP8GithubHopper GPUNVIDIATransformer Engine开源项目深度学习
Transformer Engine是NVIDIA推出的一个库,专门用于在其GPU上加速Transformer模型。该库支持8位浮点(FP8)精度,使训练和推理性能大幅提升的同时,内存使用降低。TE提供了一系列优化的构建模块和混合精度API,适用于各种流行的深度学习框架,保证精度不受影响。通过与主流大型语言模型库的集成,简化了FP8支持的实现,使Transformer模型的训练和推理更加高效和便捷,适用于多种NVIDIA GPU架构。
transformers - 机器学习库,覆盖文本、视觉与音频处理
GithubHugging Face人工智能多模态开源项目机器学习自然语言处理
探索🤗 Transformers——一个功能全面的机器学习库,覆盖文本、视觉与音频处理。该库提供数千种可对接JAX、PyTorch或TensorFlow的预训练模型,适用于多种语言处理与多模态任务。主要功能包括: - 文本分类 - 信息提取 - 问答系统 - 摘要生成 - 翻译 - 文本生成 此外,还能处理表格问答、OCR及视觉问答等多模态任务。Transformers库易于使用,支持模型间的快速切换与无缝整合。
mlc-llm - 通用大语言模型高性能部署引擎
AI模型优化GithubMLC LLMMLCEngine开源项目机器学习编译器高性能部署
MLC LLM是一款用于大语言模型的高性能部署引擎,支持用户在各种平台上开发、优化和部署AI模型。核心组件MLCEngine通过REST服务器、Python、JavaScript、iOS和Android等接口提供OpenAI兼容的API,支持AMD、NVIDIA、Apple和Intel等多种硬件平台。项目持续优化编译器和引擎,与社区共同发展。
LLMCompiler - 提升大语言模型性能的并行函数调用框架
GithubLLMCompiler优化编排并行函数调用开源项目效率提升模型兼容
LLMCompiler框架通过并行函数调用提升大语言模型的执行效率。它自动识别可并行任务,减少延迟和成本,同时提升准确性。用户只需提供工具和上下文示例,LLMCompiler就能优化函数调用编排。支持开源和闭源模型,包括LLaMA和OpenAI的GPT模型。LLMCompiler在不同任务中展示了显著的延迟加速、成本节省和准确性提升,是处理复杂问题的理想工具。
matmulfreellm - 高效的无矩阵乘法语言模型,完全兼容Transformers库
GithubMatMul-Free LMTransformer++开源项目深度学习矩阵乘法语言模型
MatMul-Free LM是一种无需矩阵乘法操作的高效语言模型架构,兼容🤗 Transformers库,支持370M至2.7B参数的模型。该模型使用高效的三值权重,在计算效率和性能提升方面表现优异。安装需求包括PyTorch、Triton和einops。用户可以轻松初始化模型,并使用预训练模型进行文本生成,适用于各种高效语言建模应用场景。
mt5-large - 多语言文本转换模型支持101种语言处理
GithubHuggingfacemT5多语言模型开源项目机器学习模型自然语言处理预训练
mt5-large是基于Google's mT5架构开发的大规模多语言预训练模型。该模型在覆盖101种语言的mC4语料库上训练,可处理中文、英语、法语等多语言任务。mt5-large采用统一的文本到文本格式,在多语言NLP基准测试中表现出色。值得注意的是,该模型需要针对特定下游任务进行微调后才能使用。mt5-large为多语言自然语言处理研究和应用提供了坚实基础,有助于推动跨语言AI技术的发展。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号