Project Icon

lightning-thunder

PyTorch模型优化编译器 显著提升训练速度

Lightning Thunder是一款专为PyTorch设计的源到源编译器。它通过整合nvFuser、torch.compile、cuDNN等多种硬件执行器,大幅提升PyTorch程序的执行效率。支持单GPU和多GPU环境,在Llama 2 7B模型训练中实现40%的吞吐量提升。Thunder具有易用性、可理解性和可扩展性,是PyTorch开发者提升模型性能的有力工具。

vllm - 高性能与易用性的LLM推理与服务平台
GithubLLM服务PagedAttentionvLLM开源项目量化高吞吐量
vLLM是一个高性能且易用的LLM推理与服务平台,具备PagedAttention内存管理、CUDA/HIP图形加速、量化支持、并行解码算法及流式输出等技术优势。vLLM无缝集成Hugging Face模型,兼容多种硬件设备,支持分布式推理和OpenAI API。最新版本支持Llama 3.1和FP8量化。用户可通过pip安装并参考详细文档快速入门。
mlc-llm - 通用大语言模型高性能部署引擎
AI模型优化GithubMLC LLMMLCEngine开源项目机器学习编译器高性能部署
MLC LLM是一款用于大语言模型的高性能部署引擎,支持用户在各种平台上开发、优化和部署AI模型。核心组件MLCEngine通过REST服务器、Python、JavaScript、iOS和Android等接口提供OpenAI兼容的API,支持AMD、NVIDIA、Apple和Intel等多种硬件平台。项目持续优化编译器和引擎,与社区共同发展。
UltraFastBERT - 指数级加速的BERT语言模型训练与推理方案
BERTGithubUltraFastBERT开源项目机器学习神经网络语言模型
UltraFastBERT是一个开源项目,旨在通过创新的快速前馈(FFF)层设计实现BERT语言模型的指数级加速。项目提供了完整的训练代码,以及在CPU、PyTorch和CUDA平台上的高效实现。包含训练文件夹、各平台基准测试代码,以及UltraFastBERT-1x11-long模型的配置和权重,可通过HuggingFace轻松加载使用。研究人员可以方便地复现结果,并进一步探索该突破性技术在自然语言处理领域的广泛应用潜力。
Trainer - 基于PyTorch的通用模型训练框架
GithubPyTorchTrainer多GPU训练实验日志开源项目模型训练
Trainer是一个基于PyTorch的开源模型训练框架,具有简洁的代码结构和灵活的优化控制。该框架支持自动优化、高级优化循环、批量大小查找、分布式训练和Accelerate集成。此外,Trainer提供回调功能、性能分析和多种实验日志记录选项,包括Tensorboard和ClearML等。这个框架适用于各类深度学习任务,能够简化训练流程并提升效率。
TriForce - 层级推测解码实现长序列生成的高效无损加速
GithubTriForce开源项目推理加速无损加速深度学习长序列生成
TriForce是一种新型长序列生成加速技术,无需额外训练即可使用。通过层级推测解码方法,该技术在保持生成质量的同时大幅提高速度。TriForce支持多种长上下文Llama模型,提供片上和卸载运行模式以适应不同硬件。在A100和RTX 4090等GPU上,TriForce展现出优异性能,为大型语言模型的高效部署开辟新途径。
pytorch-forecasting - 前沿的时间序列预测工具包,提供灵活的高层API
GithubPyTorch ForecastingPyTorch Lightning开源项目时间序列预测深度学习神经网络
PyTorch Forecasting 是一个基于 PyTorch 的时间序列预测包,适用于实际应用和研究。它支持多种神经网络架构及自动日志记录,利用 PyTorch Lightning 实现多 GPU/CPU 的扩展训练,并内置模型解释功能。关键特性包括时间序列数据集类、基本模型类、增强的神经网络架构、多视角时间序列指标和超参数优化。安装简便,支持 pip 和 conda,文档详尽,并包含模型比较和使用案例。
flashinfer - 专注LLM服务的高效GPU内核库
FlashInferGPU内核GithubLLM服务开源项目注意力机制高性能计算
FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。
llama-cpp-python - Python绑定库为LLM集成提供高效接口
AI模型GithubOpenAI兼容Python绑定llama.cpp开源项目文本生成
llama-cpp-python为llama.cpp提供Python绑定,支持低级C API访问和高级Python API文本补全。该库兼容OpenAI、LangChain和LlamaIndex,支持CUDA、Metal等硬件加速,实现高效LLM推理。它还提供聊天补全和函数调用功能,适用于多种AI应用场景。
DeepSpeed-MII - 开源低延迟模型推理库
DeepSpeed-MIIGithub优化技术低延迟开源项目模型支持高吞吐量
DeepSpeed-MII是一款开源Python库,专注于高吞吐量、低延迟和成本效益的模型推理。支持的技术包括块状KV缓存、连续批处理、高性能CUDA内核等,适用于37000多个模型,如Llama-2、Mixtral和Phi-2。v0.2版本提升了性能和功能,吞吐量提高至2.5倍。适用于语言模型及图像生成任务。
xtuner - 全面的模型微调解决方案,支持LLM和VLM的高效训练
DeepSpeedGithubInternLMLlama2QLoRAXTuner开源项目
XTuner是一款高效灵活的大模型微调工具包,支持LLM和VLM在多种GPU上的预训练和微调。它能够在单个8GB GPU上微调7B模型,并支持超过70B模型的多节点微调。XTuner兼容DeepSpeed,支持多种优化技术,并涵盖多种微调方法如QLoRA和LoRA。该工具包提供连续预训练、指令微调和代理微调等功能,输出模型可以无缝集成到部署和评估工具中,适应多种应用场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号