#模型管理

mlflow - 机器学习生命周期管理的轻量级平台
MLflow机器学习模型管理实验跟踪项目打包Github开源项目
MLflow 是一个轻量级平台,帮助简化机器学习的开发和部署过程。它支持实验跟踪、代码打包和模型部署,并且可以集成 TensorFlow、PyTorch 和 XGBoost 等库。主要组件包括 MLflow Tracking、MLflow Projects、MLflow Models 和 MLflow Model Registry,助力全面管理机器学习生命周期。
lms - 简化模型管理和本地API服务的命令行工具
LM Studiolms命令行工具模型管理API服务器Github开源项目
lms 是一款命令行工具,专为 LM Studio 设计,提供模型管理和本地API服务。用户可以通过简单的命令进行安装、启动和管理模型,并支持GPU加速。无论是查看模型状态、加载和卸载模型,还是创建新项目,lms 都能轻松应对。工具还支持流式日志监控,确保用户对模型运行状态一目了然,是开发者和数据科学家的实用工具。
wandb - 专注于机器学习流程优化的工具
Weights & Biases机器学习模型训练数据可视化模型管理Github开源项目
Weights & Biases(简称W&B)是一个专注于机器学习流程优化的工具,它通过追踪和可视化机器学习的各个阶段——从数据集处理到模型部署——以提高开发效率。W&B 允许用户在一处平台上管理和比较多个实验,便捷地监控实验的运行效果及进度。
client - API客户端与PHP集成指南
OpenAI PHPAI API模型管理代码示例PHPGithub开源项目
OpenAI PHP是一款由社区维护的PHP API客户端,允许与Open AI API交互,适合依赖此工具的个人或企业使用。本文详细介绍其安装流程、主要功能以及多种资源的应用方式。从模型资源管理到任务执行创建,再到聊天消息处理,都能提供高效支持。
craftgen - 开源AI平台,支持直观工作流、丰富模型和实时监控
Craftgen.aiAI平台工作流模型管理实时监控Github开源项目
Craftgen.ai 是针对技术和非技术用户的开源AI平台,基于图形和事件驱动架构,用户可以自定义AI组件。平台支持多种模型的无缝集成,具备强大的工作流构建和测试功能,以及基于LLM功能的代理能力。无论是开发自定义AI解决方案,还是自动化日常任务,Craftgen.ai都能为用户提供灵活、安全且直观的体验,使AI技术融入日常问题解决和创新之中。
Wandb_Tutorial - 机器学习训练数据记录与可视化工具使用指南
wandb机器学习超参数搜索数据管理模型管理Github开源项目
该教程全面介绍了wandb工具在机器学习训练中的应用。内容包括基础用法、超参数搜索、数据模型管理和本地部署。通过具体实例展示了训练曲线、图像、视频等数据的记录方法,以及如何利用Launchpad进行分布式超参数搜索。教程提供中英双语资源,适合研究人员和开发者优化机器学习工作流程。
mim - OpenMMLab项目的统一管理和运行工具
MIMOpenMMLab包管理模型管理命令行工具Github开源项目
MIM为OpenMMLab项目提供统一的管理接口,简化了包的安装卸载和模型库管理。它通过统一入口点简化了训练、测试和推理过程,并支持自定义项目构建和网格搜索,提高了开发效率和实验灵活性。
ollama-python - Python与Ollama模型集成的便捷工具
OllamaPython库AI对话API集成模型管理Github开源项目
ollama-python是一个针对Python 3.8+项目的库,用于简化与Ollama模型的集成。这个库提供了聊天、文本生成和流式响应等功能,同时包含模型管理、嵌入和异步操作的API。通过简化与Ollama的交互过程,该库使得在Python项目中使用先进语言模型变得更加容易。
ollama-js - 简化AI模型与JavaScript项目的集成
OllamaJavaScript库API集成聊天机器人模型管理Github开源项目
Ollama JavaScript库是一个开源工具,用于简化JavaScript项目与Ollama大语言模型的集成。该库提供聊天、文本生成和模型管理等功能,并支持流式响应和自定义客户端。其API设计简洁,适用于构建各种AI驱动的应用程序。
comfy-cli - 功能强大的ComfyUI命令行管理工具
ComfyUI命令行工具AI绘图模型管理自定义节点Github开源项目
comfy-cli是一款专为ComfyUI开发的命令行工具。它提供了快速安装、包管理、自定义节点管理等功能,支持跨平台使用。该工具还具备下载检查点、保存模型哈希等特性,并提供详细文档和示例。comfy-cli简化了ComfyUI的管理流程,适用于各级用户。
The Local AI Playground - 免费开源的本地AI管理与推理平台,无需GPU
AI工具Local AI模型管理摘要验证推理服务器CPU推理
The Local AI Playground是一个免费开源的本地AI管理和推理平台。该应用允许用户在无需GPU的情况下离线体验AI模型,提供简洁的操作界面。平台特点包括高效的模型管理、完整性验证和CPU推理,支持多种量化方式。内置推理服务器方便用户进行本地AI实验。这个平台简化了AI模型的下载、管理和使用过程,适合AI爱好者和开发者使用。
model_server - 高性能AI模型部署系统 支持多框架和多设备
OpenVINO Model Server模型推理微服务架构AI部署模型管理Github开源项目
OpenVINO Model Server是一个高性能AI模型部署系统,针对Intel架构优化。支持TensorFlow、PaddlePaddle和ONNX等多种框架,可在不同AI加速器上运行。系统通过gRPC和REST API提供服务,具备模型版本控制、动态输入和DAG调度等功能。适用于边缘计算和云环境,可提高资源利用率和推理效率。该系统还支持Python代码执行、gRPC流式传输和MediaPipe图形服务。OpenVINO Model Server适合微服务架构应用和Kubernetes环境部署,可实现水平和垂直推理扩展。
ollama-gui - 本地大语言模型的Web交互界面
Ollama GUILLM本地部署Web界面模型管理Github开源项目
Ollama GUI为ollama.ai提供Web界面,支持在本地运行大型语言模型。该项目集成多种模型,如Mixtral、Phi和Solar,实现模型下载、聊天历史管理和Markdown解析等功能。基于Vue.js、Vite和Tailwind CSS开发,Ollama GUI为AI爱好者和开发者打造了便捷的本地LLM交互平台。