#模型部署

DataRobot MLOps - 统一管理生产环境中的机器学习模型
AI工具MLOpsAI平台机器学习模型部署模型监控
DataRobot MLOps为企业提供统一平台,用于部署、监控和管理生产环境中的机器学习模型。它可监控现有模型、自动化健康检查和生命周期管理,并内置治理和公平性功能。通过DataRobot MLOps,企业可有效管理AI项目,优化模型表现,降低相关风险。
Remyx AI - 无代码平台快速定制视觉AI模型
AI工具Remyx AI人工智能开发机器学习模型部署数据处理
Remyx AI是一个简化AI开发的平台,提供从数据处理到模型部署的全套工具。专注于计算机视觉应用,支持无代码自动机器学习,使用户能快速定制和部署视觉模型。平台特色包括简易的计算机视觉API、智能云服务和文本到模型的生成功能,适合AI初学者和专业开发者使用。Remyx AI致力于提高AI开发效率,让企业专注于创新应用。
Deep-learning-in-cloud - 深度学习云计算资源和工具综合指南
云GPU深度学习MLOps模型部署免费计算资源Github开源项目
这个开源项目汇集了云端深度学习资源和工具信息。内容包括GPU云服务比较、云GPU提供商列表、定价和试用信息、模型部署平台、MLOps工具以及学术优惠。项目旨在帮助开发者和企业选择合适的云计算资源,提高模型训练效率并降低成本。此外还提供了模型部署和MLOps相关指导,为深度学习全生命周期提供参考。无论是个人开发者还是企业,都能在这里找到适合自己需求的云计算资源和工具。
mlops-zoomcamp - MLOps实践指南,机器学习服务的端到端生产化
MLOps机器学习模型部署实验跟踪工作流编排Github开源项目
MLOps Zoomcamp课程聚焦机器学习服务的生产化实践,涵盖实验跟踪、ML流水线、模型部署、监控和最佳实践等关键环节。课程面向数据科学家、ML工程师及相关从业者,通过理论讲解和实践项目,帮助学员掌握将ML模型从实验环境转化为生产系统的全流程技能。内容涉及MLflow、Mage、Flask等工具的应用,以及CI/CD和基础设施即代码等现代软件开发实践。
fsdl-text-recognizer-2022-labs - 深度学习全流程实践 手写识别到模型部署教程
深度学习PyTorch实验管理模型部署手写文本识别Github开源项目
本项目为深度学习实践提供全面教程,涵盖手写文本识别到模型部署的完整过程。采用PyTorch和PyTorch Lightning框架,结合CNN和Transformer技术,使用Weights & Biases管理实验。内容包括代码质量控制、Docker容器化、AWS Lambda部署和Gradio前端开发。通过系列实验,帮助掌握现代深度学习项目的全栈开发能力。
seldon-core - Kubernetes上的机器学习模型部署与管理平台
Seldon Core机器学习Kubernetes模型部署微服务Github开源项目
Seldon Core是专为Kubernetes环境设计的机器学习模型部署平台。支持主流框架,提供REST/GRPC接口,可扩展至数千模型。内置监控、日志、解释器、异常检测等功能,支持A/B测试和金丝雀发布。简化模型从开发到生产流程,适合企业级机器学习部署需求。
text_classifier_tf2 - 多模型文本分类框架 支持TextCNN、BERT等
文本分类深度学习模型训练方法评估指标模型部署Github开源项目
该开源项目提供基于TensorFlow 2的多模型文本分类框架。支持TextCNN、TextRNN、BERT等模型,集成词向量增强、对抗训练、对比学习等功能。框架适用于二分类和多分类任务,提供灵活配置选项。项目还包含交互式预测和批量测试工具,便于分析模型性能和错误案例。
openmodelz - 开源平台简化机器学习模型的部署和扩展
OpenModelZ模型部署机器学习自动扩展开源Github开源项目
OpenModelZ是一个开源平台,简化了机器学习模型的部署和扩展过程。它支持将模型部署到任何集群,提供自动扩展、多框架兼容、Gradio/Streamlit/Jupyter集成等功能。用户可从单机起步,轻松扩展到集群,每个部署都有独立子域名。该平台自动处理基础设施,让开发者专注于模型本身。
qgate-sln-mlrun - MLRun解决方案的全面质量检测工具
MLRun质量测试特征工程数据摄取模型部署Github开源项目
qgate-sln-mlrun是一个针对MLRun和Iguazio解决方案的质量检测工具。它提供功能、集成、性能和安全性等方面的独立测试,支持项目管理、特征工程、数据处理、模型开发等多个场景。该工具兼容Redis、MySQL、Kafka等多种数据源和目标,可在企业环境全面部署前进行深度质量检查,为MLRun用户提供客观、全面的质量评估。
albert-xxlarge-v1 - Habana Gaudi处理器上的ALBERT XXL模型运行配置与效率提升方案
HPU模型部署Hugging FaceTransformersALBERT XXL模型Github开源项目Huggingface
该项目详细介绍了在Habana's Gaudi处理器上配置和运行ALBERT XXL模型的方法,采用GaudiConfig实现关键功能,如自动混合精度、Habana的定制AdamW实现和融合梯度裁剪等。通过提供的操作指导,用户可以高效利用Habana HPU进行模型加载、训练和推理。文档中还包含示例脚本及指南,帮助在SQuAD数据集上微调模型,探索Habana HPU的应用潜力。
mamba-130m-hf - 轻量级Mamba模型为序列建模提供高效替代方案
模型开源项目生成模型HuggingfacetransformersMambaGithubPEFT微调模型部署
mamba-130m-hf是基于Mamba架构的轻量级语言模型,专为因果语言建模设计。该模型与Transformers库兼容,支持高效文本生成和序列建模。通过创新的状态空间模型结构,mamba-130m-hf在保持较小参数量的同时展现出卓越性能。模型可用于直接文本生成,也支持通过PEFT等技术进行微调以适应特定任务。其轻量级设计和强大功能使其成为序列建模任务的理想选择。
Llama-3.2-11B-Vision-Instruct-nf4 - 量化视觉语言模型实现高效图像分析与理解
神经网络量化图像识别开源项目模型模型部署视觉AI模型GithubLlama-3.2Huggingface
Llama-3.2-11B-Vision-Instruct-nf4是一个基于meta-llama/Llama-3.2-11B-Vision-Instruct的量化视觉语言模型,采用BitsAndBytes的NF4(4位)量化技术,无需双重量化即可实现高效推理。该模型主要用于图像字幕生成等视觉分析任务,并提供详细的使用示例代码。项目还包含配套的ComfyUI自定义节点,为开发者提供了便捷的视觉分析工具集成方案。
huihui-ai_-_Qwen2.5-14B-Instruct-abliterated-v2-gguf - Qwen2.5-14B模型无审查量化版本集合
Qwen2.5-14B大语言模型模型部署权重文件模型Github量化模型Huggingface开源项目
这是一个基于Qwen2.5-14B-Instruct模型的GGUF量化版本集合。模型采用abliteration技术移除了安全过滤限制,并提供从5.37GB到14.62GB的多种量化版本,包括Q2_K、IQ3、Q4等系列。项目基于Apache-2.0许可证开源,支持通过transformers库加载使用。
gemma-2-2b-jpn-it-gguf - 基于Gemma的日语大模型跨平台量化部署版
日语语言模型llama.cppGemma模型部署GithubHuggingface量子化开源项目模型
基于Google Gemma-2-2b-jpn-it模型的量子化优化项目,通过llama.cpp、LM Studio和LLMFarm实现在Windows、Mac及iOS平台的轻量级部署。该项目遵循Gemma开源协议,提供高效的日语大模型部署解决方案。
MiniCPM-Llama3-V-2_5-gguf - GGUF格式大语言模型轻量化推理工具
开源项目模型模型部署Github人工智能MiniCPMollamallama.cppHuggingface
MiniCPM-Llama3-V 2.5 GGUF是一个针对大语言模型轻量化部署的优化模型文件。通过llama.cpp和ollama框架,开发者可实现模型的本地化推理。项目提供完整的部署文档,支持高效且便捷的本地化实现
Llama-2-7b-chat-hf-q4f32_1-MLC - 基于Llama-2的MLC格式聊天模型
模型部署聊天机器人MLCLlama-2开源项目API开发模型HuggingfaceGithub
这是一个基于Llama-2-7b-chat-hf的MLC格式q4f32_1模型,支持MLC-LLM和WebLLM项目。模型提供命令行聊天、REST服务器和Python API三种调用方式,可用于开发聊天应用及系统集成。
Mistral-7B-OpenOrca-GPTQ - Mistral语言模型的GPTQ量化优化实现
GPTQ量化自然语言处理开源项目模型GithubHuggingfaceMistral-7B深度学习模型部署
本项目对Mistral-7B-OpenOrca模型进行GPTQ量化处理,提供4位和8位精度、多种分组大小的量化版本。通过优化存储和计算方式,在保持模型性能的同时大幅降低显存占用。项目支持text-generation-webui、Python等多种调用方式,并提供完整的使用文档。