#模型部署
serving - 灵活且高效的机器学习模型推理平台
TensorFlow Serving模型部署机器学习高性能推理DockerGithub开源项目
TensorFlow Serving 是一个为生产环境设计的灵活且高性能的机器学习模型推理系统。它管理训练后的模型生命周期,通过高效查询表提供版本化访问,支持多模型和多版本同时部署。系统支持 gRPC 和 HTTP 推理端点,允许无缝部署新版本,支持金丝雀发布和 A/B 测试,并且延迟极低。调度器将推理请求分组以在 GPU 上联合执行,支持包括 TensorFlow 模型、嵌入、词汇表和特征转换在内的多种服务对象。
clearml - ML/DL 开发和生产套件
ClearML实验管理MLOps数据管理模型部署Github开源项目
ClearML是一个开源平台,集成了实验管理、MLOps/LLMOps、数据管理、模型服务和报告生成功能。支持云端和本地部署,帮助用户实现AI项目的高效管理和自动化,包括实验记录、数据版本控制、模型部署与监控等。ClearML支持多种机器学习和深度学习框架,并与Jupyter Notebook无缝集成,适合团队协作和远程任务执行,提升AI工作流效率。
pytorch-lightning - 深度学习框架的全方位AI模型训练与部署解决方案
PyTorch Lightning深度学习AI模型训练Lightning Fabric模型部署Github开源项目热门
深度学习框架Pytorch-Lightning 2.0版本现已推出,提供清晰稳定的API,支持AI模型的预训练、微调和部署。该框架轻松实现Pytorch代码组织,将科学研究与工程实现分离,帮助研究人员和工程师高效进行模型训练与部署。通过提供各种训练和部署选项以及兼容多种硬件和加速器,Pytorch-Lightning兼顾模型的灵活性和可扩展性,适应从初学者到专业AI研究的不同需求。
openvino - 提升深度学习模型部署与优化的开源工具包
OpenVINO深度学习模型优化模型部署AI应用性能提升Github开源项目热门
OpenVINO™是一款开源软件工具包,用于优化和部署深度学习模型。它支持多种框架如TensorFlow、PyTorch等,能在从边缘到云的多种平台上高效部署。此工具包还包含大量社区资源和教程,助力提升计算机视觉、自然语言处理等领域的模型性能。
inference - 简化语言和多模态模型部署的强大工具
Xorbits Inference模型部署多模态模型API接口分布式部署Github开源项目
Xorbits Inference 是一个强大的库,旨在简化语言、语音识别和多模态模型的部署。研究人员、开发者和数据科学家都可以通过一个命令轻松部署和服务先进的内置模型。该库支持连续批处理、MLX后端、SGLang后端及LoRA技术,提供高效的硬件资源利用。Xorbits Inference 与LangChain、LlamaIndex等第三方库无缝集成,支持分布式部署和多种交互接口,是AI模型服务的理想工具。
langcorn - LangChain模型部署与管理服务
LangCornLangChainFastAPIAPI服务器模型部署Github开源项目
LangCorn利用FastAPI实现高效的LangChain模型和管道部署与管理。主要功能包括便捷的身份验证、高性能请求处理、可扩展的语言处理及异步处理支持。通过pip安装并使用详尽的RESTful API文档,用户可以快速启动。适合高效、可靠的语言处理应用。
Made-With-ML - 学习设计、开发、部署和迭代机器学习生产系统的开放资源
Made With ML机器学习软件工程MLOps模型部署Github开源项目
Made With ML 是开发者学习设计、开发、部署和迭代机器学习生产系统的开放资源。它提供完整课程和代码实践指导,支持本地及云集群环境配置,适合求知欲强的技术人员和研究者。
text-embeddings-inference - 快速上手Ai理论及应用实战
text-embeddings-inferenceBERTDocker模型部署API文档Github开源项目
Text Embeddings Inference 为文本嵌入模型提供高效的推理服务,支持多种模型配置,适合AI及深度学习需求。快速部署和卓越的服务器级性能使其成为企业和研究机构面对大规模文本处理和复杂查询时的理想选择,支持包括 [BERT](https://link-to-bert) 和 [RoBERTa](https://link-to-roberta) 在内的多种模型,并兼容 Docker 和完备的 API 文档。
Get-Things-Done-with-Prompt-Engineering-and-LangChain - 利用Prompt Engineering和LangChain构建实用的AI应用
LangChainLlama 2AI应用ChatGPT/GPT-4模型部署Github开源项目
探索如何使用ChatGPT/GPT-4和LangChain在Python中构建实际应用程序。从快速开始指南到深度调优,多种教程和实战项目帮助用户在AI领域实现快速成长。
computervision-recipes - 计算机视觉领域的实用示例和指南,涵盖面部识别、图像识别等多种视觉任务
计算机视觉图像识别PyTorchAzure模型部署Github开源项目
computervision-recipes为数据科学家和机器学习工程师提供计算机视觉领域的实用示例和指南,涵盖面部识别、图像识别等多种视觉任务,并便利地利用先进库加速从概念到实现的全过程,并在云端实现模型训练与部署。
h2o-3 - 支持多编程语言的高性能内存中分布式机器学习平台
H2O-3分布式机器学习算法模型部署开源资源Github开源项目
H2O-3是一个支持多编程语言的高性能内存中分布式机器学习平台,提供广泛的算法如GLM、随机森林、深度神经网络等,并可扩展以添加自定义算法。平台与Hadoop和Spark等大数据技术完美整合,可通过POJO或MOJO格式轻松导出模型至生产环境,适合各类数据科学家在大数据场景下进行机器学习开发。
torchchat - 使用Python和C/C++运行大型语言模型的轻量化实现
torchchatPython大语言模型PyTorch模型部署Github开源项目
torchchat可以通过Python和C/C++应用程序无缝运行大型语言模型(LLMs),支持桌面、服务器以及iOS和Android设备。该项目特点包括PyTorch原生执行、高效运行、支持多种硬件和操作系统、多种数据类型和量化方案。其安装步骤简便,并提供多种运行模式,如命令行、浏览器界面和REST API,适用于各类开发环境。
TensorLayerX - 兼容多后端的AI框架,支持深度学习开发
TensorLayerX多后端AI框架深度学习模型部署Github开源项目
TensorLayerX是一款支持多种后端(如TensorFlow、PyTorch、MindSpore、PaddlePaddle)的AI框架,允许用户在不同硬件上运行代码。该项目由北京大学、鹏城实验室、香港科技大学、帝国理工学院、普林斯顿大学、牛津大学、斯坦福大学、清华大学和爱丁堡大学的研究员维护,具备高度兼容性、丰富的模型库和便捷的部署能力,为深度学习开发者提供支持。
pytorch-auto-drive - 基于 PyTorch 的分割模型和车道检测模型
PytorchAutoDrive语义分割车道检测PyTorch模型部署Github开源项目
框架基于纯Python和PyTorch,提供从模型训练、测试到可视化和部署的全方位支持。特色包括多种主干网络、简洁易懂的代码、混合精度训练及ONNX和TensorRT的部署支持。该框架中模型训练速度快,性能优于其他实现,支持多种数据集和模型方法,为自动驾驶研究提供可靠的基准测试和高效工具。
inference - 简化了计算机视觉模型的部署的开源平台
Roboflow Inference计算机视觉模型部署YOLOv8开源平台Github开源项目
Roboflow Inference 是一个开源平台,简化了计算机视觉模型的部署。通过 Python 原生包、自托管推理服务器或托管的 API,开发者可以执行对象检测、分类和实例分割,并使用基础模型如 CLIP、Segment Anything 和 YOLO-World。平台提供了高级功能,如服务器部署、设备管理和主动学习。支持 GPU 加速环境,并提供详尽的文档和教程,帮助用户充分利用 Inference 包的功能。
ai.deploy.box - 多平台支持的深度学习模型推理工具箱
AiDB模型部署深度学习AI工具箱推理框架Github开源项目
AiDB是一个方便的C++深度学习模型部署工具,兼容ONNXRUNTIME、MNN、NCNN、TNN、PaddleLite和OpenVINO等主流推理框架。该工具简化了多框架的集成,通过统一接口支持多平台操作,如Linux、MacOS和Android,以及多种编程语言如Python、Lua和Go。项目包含丰富的部署实例和演示,帮助用户快速进行模型部署。
truss - 简便的AI/ML模型生产环境部署工具
TrussBaseten模型部署机器学习模型Python框架Github开源项目
Truss是一个用于在生产环境中轻松打包和部署AI/ML模型的工具。它具有一次编写即可在任何地方运行的特性,确保开发和生产环境的一致性。支持所有主流的Python框架,如transformers、diffusers、PyTorch和TensorFlow等,并包含快速开发反馈机制。Truss由Baseten维护,提供便捷的云端部署,通过Baseten的API密钥即可轻松实现远程部署。
BentoDiffusion - 如何使用BentoML部署和运行Stable Diffusion模型的教程
BentoMLStable DiffusionSDXL Turbo图像生成模型部署Github开源项目
本项目示例展示如何使用BentoML部署和运行Stable Diffusion模型,适用于图像生成和操作系统应用开发。需具备Python 3.9+和BentoML基础知识,并可利用Nvidia GPU进行本地测试。内容涵盖依赖安装、服务运行和BentoCloud部署,提供多个模型选择如ControlNet、Latent Consistency Model和Stable Diffusion 2等。
mmdeploy - 多平台支持的深度学习模型部署工具集与推理框架
MMDeployOpenMMLab深度学习模型部署AI模型Github开源项目
MMDeploy是一个开源的深度学习模型部署工具,支持OpenMMLab的各类模型库。该工具集成了多种推理后端,兼容Linux、Windows、macOS和Android等操作系统。提供灵活可扩展的C/C++ SDK框架,支持模型转换、配置编写、性能剖析和量化。详尽文档指导简化了模型部署过程,使其更加高效。
machine-learning - 机器学习与数据科学教程,深度学习、模型部署与强化学习
machine-learning深度学习模型部署强化学习时间序列Github开源项目
本项目持续更新,介绍了数据科学和机器学习各个主题。内容涵盖深度学习、模型部署、运筹学和强化学习等,提供Jupyter Notebook格式教程,结合Python科学栈(如numpy、pandas)和开源库(如scikit-learn、TensorFlow、PyTorch)进行教学示范,平衡数学符号与实际应用。
leptonai - 优化Python框架,轻松构建AI服务
Lepton AIAI服务Python库HuggingFace模型部署Github开源项目
LeptonAI框架提供了一种Pythonic抽象方式,将研究和建模代码快速转化为AI服务。支持启动包括Llama、SDXL、Whisper等常见模型,具备自动批处理和后台作业等AI优化功能。用户可以通过Python客户端轻松调度服务,也能快速在云环境中部署。开发者可参考丰富的文档和示例库,灵活定制Photon类和Handler函数。
executorch - 移动和边缘设备上高效运行PyTorch模型的解决方案
ExecuTorchPyTorch推理能力边缘设备模型部署Github开源项目
ExecuTorch 提供端到端解决方案,实现移动和边缘设备上的推理能力,涵盖穿戴设备、嵌入式设备和微控制器。作为 PyTorch Edge 生态系统的一部分,ExecuTorch 通过轻量级运行时,利用硬件能力(如 CPU、NPU 和 DSP),高效地将 PyTorch 模型部署到多种平台。其主要优势包括:广泛的兼容性、开发效率和出色的用户体验。欲了解更多技术细节和教程,请访问文档网站获取最新版本。
Awesome-LLMOps - LLMOps工具和资源的精选列表
LLMOps大语言模型模型部署AI框架模型推理Github开源项目
Awesome-LLMOps列出了大语言模型运维(LLMOps)领域的优秀工具和资源。涵盖模型训练、部署、优化、服务、安全、搜索和代码AI等方面。该项目为开发者提供了构建和管理大规模语言模型应用的重要参考。
FunASR - 综合性开源语音识别与处理工具集
FunASR语音识别预训练模型模型部署多任务Github开源项目
FunASR是一个全面的开源语音处理工具集,融合了学术研究和工业应用。它不仅支持语音识别模型的训练和微调,还提供了语音活动检测、标点恢复等多种功能。该项目提供大量预训练模型,便于快速构建高效准确的语音识别服务。FunASR以其广泛的功能、高性能和易部署特性,为语音识别技术的研究和应用提供了强大支持。
djl-demo - 深度Java库示例集,推理、训练到多平台深度学习应用
Deep Java Library深度学习Java API示例应用模型部署Github开源项目
代码仓库包含丰富的Deep Java Library (DJL)示例,展示了其在推理、训练、移动应用开发、云服务集成和大数据处理方面的多样化应用。涉及图像分类、对象检测和自然语言处理等领域,并提供了跨平台深度学习模型部署方案。这些实例有助于开发者迅速掌握DJL技术,并在多种实际场景中应用。
cog-llama-template - 使用Cog工具构建和部署多版本LLaMA模型指南
LLaMACogGPU模型部署AI语言模型Github开源项目
本项目提供使用Cog工具构建和部署多版本LLaMA模型的详细指南。涵盖从权重准备到Replicate平台部署的全过程,支持7B、13B和70B规模的LLaMA和LLaMA2模型。适用于研究人员和开发者进行LLaMA模型的云端部署和API开发。
aiges - 简化AI模型部署与服务化的开源工具
AIGESAI服务引擎模型部署云原生Python插件Github开源项目
AIGES是Athena Serving Framework的核心组件,为AI开发者提供通用封装工具。它支持快速部署AI模型和引擎,集成网络、分发策略和数据处理等辅助系统。采用云原生架构,AIGES加速AI模型云服务化并确保稳定性。开发者可专注于模型逻辑,轻松实现高效部署、升级、扩展和监控。
codegen - 开源智能代码生成与对话平台
CodegenChatGLM-6B代码生成AI聊天机器人模型部署Github开源项目
Codegen是一个集成Salesforce codegen和THUDM/ChatGLM-6B的开源项目,提供代码生成和智能对话功能。支持多种编程语言,具备web服务器支持,易于集成到开发工作流。项目提供在线演示和VS Code扩展,便于快速体验和使用。适合寻求高效编程辅助工具的开发者。
CodeQwen1.5 - 多语言支持的高性能代码生成模型
CodeQwen1.5代码生成长上下文编程语言模型部署Github开源项目
CodeQwen1.5是一款专用于代码生成的大型语言模型,支持92种编程语言,具备64K tokens的长文本处理能力。该模型在代码生成、文本到SQL转换和bug修复等任务中表现优异,为开发者提供了高效的AI编码辅助工具。作为Qwen1.5的专用代码版本,CodeQwen1.5采用transformer架构,在多项基准测试中展现出卓越性能。
Kea ML - 全方位AI开发解决方案 从开发到部署一体化
AI工具KeaMLAI开发机器学习模型部署云服务
Kea ML为AI开发提供全面解决方案,涵盖开发、训练和部署全过程。平台特色包括预配置环境、资源优化和协作工具,旨在简化机器学习工作流程。提供多种套餐选择,从免费入门到企业定制,适应不同规模团队需求。
NeuroCraft - 简化神经网络开发流程的直观平台
AI工具神经网络模型设计模型训练模型部署人工智能
NeuroCraft是一个创新的神经网络开发平台,提供设计、训练和部署神经网络的综合解决方案。该平台采用简洁的拖放界面,简化模型设计过程,支持实时观察模型学习并灵活配置训练参数。NeuroCraft还提供多样化的部署选项,方便将模型集成到现有系统或用于应用内预测。这个平台适合各级人工智能从业者使用,有助于高效管理神经网络的全生命周期。
Datature - 一体化AI视觉平台简化企业计算机视觉应用开发
AI工具计算机视觉人工智能模型训练数据标注模型部署
Datature是一个无代码计算机视觉MLOps平台,提供数据管理、标注、训练和部署的全流程解决方案。支持图像分类、目标检测和分割等任务,具备AI辅助标注和自动模型训练功能,可显著提高开发效率。适用于医疗、零售和智慧城市等多个领域,有助于快速开发AI视觉应用。平台还提供开发工具,支持大规模部署和集成,是一个功能完备的计算机视觉开发平台。
WizModel - 将机器学习模型标准化打包和部署的开源工具
AI工具Cog2机器学习模型部署容器化预测
Cog2是WizModel平台提供的开源工具,专门用于简化机器学习模型的标准化打包和部署流程。它允许开发者通过简单的配置文件定义环境和预测逻辑,实现模型的快速构建、本地测试和云端部署。通过解决依赖管理和GPU配置等技术难题,Cog2让开发者能够更专注于模型开发,从而提升机器学习项目的整体效率。
UbiOps - AI模型部署与编排的简化解决方案
AI工具UbiOpsAI基础设施机器学习模型部署云计算
UbiOps是一个AI模型部署和编排平台,专为简化AI和机器学习项目而设计。该平台使数据科学团队能够将AI工作负载快速转化为可靠的微服务,无需深厚的DevOps经验。支持LLM和计算机视觉等多种AI模型,提供自动扩展、混合云部署和工作流管理功能。UbiOps致力于优化AI产品的开发流程,同时提高计算资源利用效率,降低运营成本。
Google Gemma Chat Online - 基于Google Gemma的多功能在线对话系统
AI工具Gemma语言模型开源AI开发模型部署
Google Gemma Chat Online集成了Gemma开源语言模型,提供在线对话服务。平台支持2B和7B参数版本,具备跨设备兼容性和多框架支持。Gemma适用于文本生成、摘要等任务,严格遵守AI伦理。开发者可通过Kaggle、Colab和Google Cloud轻松访问。虽有一定限制,Gemma在商业和研究领域仍展现出广阔应用前景。
Liner.ai - 无需编程快速创建和部署机器学习应用的工具
AI工具机器学习AI模型训练无代码开发数据导入模型部署
Liner.ai是一款免费的无需编程的机器学习工具,用户可轻松训练和部署模型。提供图像、文本、音频分类等多种项目模板,只需导入数据并一键训练,即可将模型导出至各种平台。工具经过优化,支持CPU训练,模型可用于移动设备。注重数据隐私,所有处理在本地完成。
相关文章
ClearML: 全面的机器学习开发与生产套件
3 个月前
ClearML: 一站式开源MLOps解决方案
3 个月前
ClearML: 加速您的AI开发和部署流程
3 个月前
TensorFlow Serving: 高性能机器学习模型部署利器
3 个月前
Xinference: 强大而灵活的推理服务框架
3 个月前
LangCorn: 轻松部署LangChain模型和管道的API服务器
3 个月前
Text Embeddings Inference: 高性能文本嵌入推理解决方案
3 个月前
Made With ML: 一个实用的生产级机器学习课程
3 个月前
OpenVINO:英特尔开源的AI推理优化工具包
3 个月前