#部署

ChatChat - 多功能AI平台,兼容多家主要AI提供商
Github开源项目部署AI平台ChatChat界面特性
Chat Chat平台提供简洁易用的界面,兼容Anthropic、OpenAI、Cohere和Google Gemini等主要AI提供商,支持用户轻松自我托管。平台提供详细文档和多种部署方式,包括Vercel和Railway。使用AI功能时请注意内容适宜性。
RWKV-Runner - 一款全自动化轻量级RWKV管理和启动工具并提供与OpenAI API兼容的接口
Github开源项目OpenAI API自动化语言模型部署RWKV Runner
RWKV-Runner项目通过一个轻量级的可执行程序,简化了大型语言模型的使用,并提供与OpenAI API兼容的接口,使每个ChatGPT客户端都能作为RWKV客户端使用。项目支持多语言本地化,提供用户友好界面,自动安装依赖,包含一键启动、模型管理、前后端分离等功能。支持多级VRAM配置和CUDA加速,适用于大多数计算机。提供简单的部署示例、内置模型转换工具和远程模型检查功能。
project_openai_codex - 构建和部署用于代码编写的ChatGPT AI应用
Github开源项目ChatGPTAI应用部署编程代码助手
了解如何构建和部署专用的ChatGPT AI应用,该应用可协助进行代码编写。课程涵盖Next.js 13开发,并提供项目为基础的辅导,助力开发职业生涯。
langflow - 多功能视觉框架,适用于创建多代理和RAG应用
Github开源项目Python开源Langflow多代理应用部署热门
Langflow是一个开源的视觉框架,使用Python驱动,并完全可定制。这一框架支持构建多代理和富响应生成(RAG)应用,不特定于LLM和向量存储系统。通过提供高度交互的组件界面,用户可以轻松设计和部署其应用,而无需担心底层配置。无论是在Hugging Face Spaces还是Google Cloud Platform上,Langflow均可快速部署,并支持从JSON文件加载和运行应用。此外,Langflow还支持命令行界面(CLI),为开发人员提供了额外的灵活性和控制力。
AutoGPT-Next-Web - 一键部署AutoGPT应用,支持多语言和暗黑模式
Github开源项目Vercel部署Docker网页应用AutoGPT-Next-Web
免费一键部署,使用Vercel快速搭建AutoGPT网页应用。优化本地化,中文输入即时显示。响应式设计支持多设备,绑定自定义域名和访问控制。支持Docker及多种部署方案,轻松创建和管理AutoGPT网站。
lmdeploy - 优化LLM推理的量化和部署工具
Github开源项目多模态模型部署推理量化LMDeploy
LMDeploy是由MMRazor和MMDeploy团队开发的工具包,专注于LLM的压缩、部署和服务。它提供高效的推理性能、有效的量化方法和便捷的分布式服务,显著提升请求吞吐量。支持多种量化方式和多模型服务,兼容性强。最新版本集成了TurboMind和PyTorch推理引擎,支持多种LLMs和VLMs模型,降低开发者的技术门槛。
agenta - 提供全面的应用开发支持和一站式解决方案的开源LLM平台
Github开源项目部署AgentaLLM开发平台Prompt工程人工评估
Agenta是一个开源的LLM开发平台,提供完备的工具和功能,包括提示工程、评估、人类注释和部署。它允许在不受框架、库或模型限制的环境中进行开发,支持各类LLM应用架构,如单一提示、RAG和代理架构。Agenta适用于所有级别的开发者,能够协助有效构建和部署生产级LLM应用。
cognita - RAG系统模块化与扩展平台
Github开源项目API向量数据库部署Cognita索引
Cognita整合了Langchain和LlamaIndex技术,提供了一套模块化且API驱动的RAG组件和无代码UI,适合本地及生产环境使用。新功能包括内置Metadatastore、Docker Compose快速部署及多样化的嵌入和重排序服务。此平台使得用户无需代码即可管理文档和实施QnA,优化了试验和部署的效率。
llm-twin-course - 构建生产级AI副本从设计到部署的全面实战课程
Github开源项目部署LLMOpsLLM Twin生产就绪AI副本数据工程
LLM Twin Course是一个免费课程,旨在指导学员如何设计、训练并部署生产级LLM副本。参与者将了解基于LLMOps最佳实践来构建适用于实际应用的LLM系统,涵盖从数据采集、特征处理到训练和推理的完整开发流程,并熟悉实验跟踪、模型注册和版本控制等核心MLOps技术。该课程适合有基础Python、机器学习及云服务经验的MLE、DE、DS或SWE专业人士。
rag-gpt - 集成前端、后端及管理控制台能够快速部署智能客服系统
Github开源项目LLM部署RAG-GPT智能客服系统后台管理
RAG-GPT项目允许用户利用Flask, LLM及RAG快速启动一个智能客服系统,整合了前端、后端和管理控制台。支持多种知识库的集成,配置灵活,界面友好,可在五分钟内部署生产级会话服务。适用于需要高效、高可定制的客服解决方案的业务。RAG-GPT为企业提供了一个多面的、易于配置的智能客服平台,支持Docker直接部署或源代码部署,兼容多种大型语言模型(Large Language Models),如OpenAI的GPT和Moonshot,满足各型企业的需求。
search2ai - 整合OpenAI、Gemini等联网大模型API的开源平台
Github开源项目OpenAI部署联网搜索Cloudflare WorkerMoonshot
search2ai是一款支持包括OpenAI、Azure OpenAI、Groq、Gemini在内的多个联网大模型的开源工具。此平台支持多样化部署选项,如本地及Cloudflare Worker,用户可方便自定义API密钥,优化搜索配置,实现高效的网络搜索体验。
kubectl-ai - 全自动的Kubernetes配置生成及应用插件
Github开源项目OpenAI插件Kubernetes部署kubectl-ai
kubectl-ai,一款集成了OpenAI GPT的Kubectl插件,能够自动创建和应用Kubernetes配置。它简化了配置的管理,支持Azure OpenAI、本地API等多种配置环境,提升部署的灵活性与准确度。
ChatGpt-Web - 基于React的商业网页应用
Github开源项目API部署ReactChatGPT Web后台管理
ChatGPT Web是一款基于React的高性能商业网页应用,特色包括用户友好的界面设计、响应式框架、全面的后台管理系统以及丰富的内置Prompts。该平台支持API定制和OpenAI技术集成,带来快速的加载速度和高效的数据处理。
cog - 专门用于将机器学习模型打包进生产级容器的开源工具
Github开源项目开源机器学习部署DockerCog
Cog是一款开源工具,专门用于将机器学习模型打包进生产级容器。它简化了自定义Docker环境的配置过程,能自动创建符合最佳实践的Docker镜像。Cog支持多版本CUDA,标准化的Python I/O 定义,队列处理和即将推出的云存储功能,使得从开发到部署的全过程更加高效。用户可选在本地或通过Replicate部署模型。
langstream - LangStream开源项目:支持云端和本地开发的多功能工具及示例应用
Github开源项目Kubernetes部署LangStreamCLI开发
LangStream开源项目提供多功能开发工具和示例应用,通过CLI或Kubernetes集群运行和部署。提供多种安装方式及详细文档和支持,适用于MacOS和Unix系统。项目集成OpenAI,用户能快速创建和管理应用。支持通过Helm图表进行生产级部署,并兼容EKS、AKS、GKE等主流云服务提供商的Kubernetes集群,同时提供minikube本地部署解决方案,用于快速测试和开发。
ms-ra-forwarder - 部署灵活的多平台语音合成解决方案
Github开源项目Vercel部署DockerRailwayHeroku
ms-ra-forwarder是一款易于部署且支持多平台的语音合成工具,兼容Docker、Heroku等环境。它允许用户简便地在多个平台进行语音生成和调用,支持多种音频格式和发音风格定制。项目还包括安全措施如环境变量设定,确保服务不被滥用,主要面向个人学习和非商业应用。
Deep-Learning-in-Production - 将PyTorch、TensorFlow、Keras和MXNet等深度学习模型部署至生产环境的介绍
Github开源项目PyTorch深度学习TensorFlow部署C++
项目详细介绍了如何将PyTorch、TensorFlow、Keras和MXNet等深度学习模型部署至生产环境,包括模型转换、API集成、服务器运作及跨框架策略。这一资源库提供实际细节和案例,帮助开发者全面了解部署流程,并通过Flask、C++、Go等多种技术实现模型应用。
langui - 开放源代码的UI组件库
Github开源项目开源ChatGPT部署LangUIAI界面
LangUI提供易于部署的用户界面组件,可通过复制和粘贴快速集成,无需安装或配置,即可帮助您构建和部署AI驱动的ChatGPT应用。
aurora - 免费的GPT-3.5技术的部署与使用指南
Github开源项目部署GPT-3.5DockerAURORAWeb端
Aurora提供了一个开源的GPT-3.5技术平台,允许用户免费部署并接入,支持多种部署方式,如Glitch、Vercel等。此平台允许通过配置环境变量来定制功能,如文本生成和自动化聊天,满足不同用户的需求。
chatgpt-pro - 聊天与图像生成应用
Github开源项目部署开源技术ChatGPT-ProDALL.E本地存储
ChatGPT-Pro 是一款结合了 ChatGPT 和 DALL.E 技术的先进应用,提供灵活的版本切换选项。用户可在同一界面内切换各版本,并将聊天对话保存至本地。特色功能包括 GPT 3.5 和 4,以及 DALL.E 图像生成器。适用于希望提升交互体验的用户,特别适合开发者和技术爱好者通过 Netlify 或 Vercel 进行快速部署和使用。
azure-search-openai-demo - 通过 Azure OpenAI 和 Azure AI Search 打造个性化的 ChatGPT 应用
Github开源项目Python部署Azure OpenAIAzure账户要求Azure AI搜索
该项目演示如何利用 Azure OpenAI 和 AI Search,配合 Python 开发具有私有数据驱动的 ChatGPT 类应用。提供全方位部署和运行指导,支持多种交互界面与文件格式。适用于企业员工查询内部信息,包括但不限于政策、职位描述,同时支持图像处理和语音互动功能,增强企业内部沟通效率。
free-gpt3.5-2api - API接入及部署解决方案
Github开源项目API部署free-gpt3.5-2api授权码配置
free-gpt3.5-2api项目支持多种授权方式和环境配置,提供了全面的API接入及部署解决方案。本项目支持在docker、Vercel和Koyeb等平台上进行灵活部署,并允许高效管理ACCESS_TOKENS,同时提供模型映射更新。适合寻求可定制和可扩展部署方案的开发人员。
CareGPT - 医疗人工智能开源模型
Github开源项目开源模型部署数据集CareGPT医疗LLM
CareGPT是为医疗行业设计的开源大型语言模型,提供全面的医学数据整合、高效的模型部署和资源持续更新。此项目优化了模型与知识库的结合,全面支持LLaMA系列模型的训练,并构建了高效的问答系统,从而在医疗人工智能领域中取得显著成效。深入了解CareGPT,发掘更多医疗应用案例,并推进科技与医疗的深度结合。
metaso-free-api - 高速流式输出与多模式秘塔AI搜索接口零配置兼容
Github开源项目API接口部署DockerMetaso AI秘塔AI
提供与ChatGPT接口兼容的高速流式输出和强大联网搜索功能,支持全网、学术三种模式。无需复杂配置,支持多账号接入。包含多个免费API接口转接服务,例如Moonshot AI、阶跃星辰、智谱AI、阿里通义等。支持跨平台部署,包括Docker、Render、Vercel,并提供易于理解的原生部署指导和Nginx优化配置,以便提供快速便捷的AI搜索和对话补全体验。
Groq2API - 多平台支持的开源AI模型API
Github开源项目部署使用方法安装Groq2API可选参数
Groq2API是一款开源工具,支持在多个平台上快速部署AI模型,包括Vercel、Koyeb、Render和Railway。用户可以选择不同的模型名称(如gemma-7b-it、mixtral-8x7b-32768、llama2-70b-4096),支持流式输出和自定义消息角色,通过简单API调用实现复杂的生成任务。该工具简化了AI模型的部署和使用流程。
azure-openai-proxy - Azure OpenAI API和自定义模型转发的高效代理
Github开源项目API部署代理Azure OpenAI Proxy模型映射
该项目提供了高效的代理解决方案,支持所有Azure OpenAI API和自定义精调模型,能够将OpenAI请求转换为Azure请求。适用于各种开源ChatGPT项目的后端,并解决了一些地区对OpenAI API的限制问题。支持正反向代理和API接口mock功能,非常适合需要灵活部署的场景。
FakeSoraAPI - 文本生成视频的API工具
Github开源项目API部署SoraWebuiFakeSoraAPI生成视频
FakeSoraAPI是一款为SoraWebui设计的开源API,能够将文本转换为视频。提供了在Vercel上的快速部署指南,包括克隆项目、安装依赖和运行的步骤。FakeSoraAPI以其高灵活性和易用性,让开发者能快速实现从文本到视频的转换,适用于多种应用场景。
xiaohei-zuowen - 中学作文生成器,自动生成高质量作文
Github开源项目部署小嘿作文生成器中学考试作文生成网站服务器
中学考试风格作文生成器,轻松根据主题生成高质量作文。展示生成效果以及详细的配置和部署指南,涵盖依赖安装、服务器配置和HTTPS设置,支持多平台本地部署。
FedScale - 可扩展的开源联邦学习(FL)引擎和基准测试平台
Github开源项目部署数据集联邦学习模型评估FedScale
FedScale是一个可扩展的开源联邦学习(FL)引擎和基准测试平台,提供高级API用于实现FL算法,并在多种硬件和软件环境中进行大规模部署和评估。FedScale包括大规模的FL基准测试,涵盖图像分类、对象检测、语言建模和语音识别等任务,同时提供数据集真实模拟FL训练环境。用户可以通过简单的安装流程在Linux和MacOS上快速部署,并利用丰富的教程和数据集开展实验。
YOLOv5-Lite - 轻量级高性能目标检测模型的优化与部署
Github开源项目性能优化部署模型比较YOLOv5-Liteablation实验
YOLOv5-Lite通过优化YOLOv5模型实现了轻量化、加速推理和简化部署。通过消融实验减少了Flops、内存占用和参数,并采用Shuffle Channel和YOLOv5 Head降低Channels。在Raspberry Pi 4B上输入320×320帧能达到至少10+ FPS。该项目提供各种测试模型和对比结果,展示在多种硬件平台上的性能,并包含详细的教程和下载链接。
GeminiProChat - 轻量级 Gemini Pro Chat 网页界面,支持多种部署方式
Github开源项目本地运行部署API密钥环境变量GeminiProChat
Gemini Pro Chat 提供简洁的网页界面,支持 Vercel、Railway 和 Zeabur 等多种部署方式。通过点击部署按钮即可完成设置,支持 Docker 部署,并可通过环境变量自定义功能。运行需 Node v18 及 GEMINI API KEY。基于 ChatGPT-Demo 开源项目,包含本地运行指南和依赖安装说明。
x-stable-diffusion - Stable Diffusion 模型的加速技术的汇编
Github开源项目Stable Diffusion优化部署图片生成Stochastic.ai
该项目包含多种加速Stable Diffusion模型的技术,旨在更高效生成图像并节省资源。通过示例图像和详细的基准测试,用户可以轻松选择最佳技术。借助stochasticx命令行工具,用户可以快速在本地部署模型。项目还支持在Google Colab上运行,提供包括AITemplate、nvFuser、FlashAttention和TensorRT在内的多种优化工具。
nginx-playground - 交互式Nginx配置实验平台
Github开源项目安全部署开发nginxplayground
nginx-playground提供在线交互式环境,供开发者实时编写和测试Nginx配置。该平台采用沙箱技术,确保安全性的同时免除本地安装需求。虽不再主动开发新功能,但仍维护现有功能并接受错误修复。项目包含完整开发指南,适合想深入理解Nginx配置的技术人员使用。
eiblog - 高性能个人博客系统 支持多种数据库和自动备份
Github开源项目部署DockerEiBlog博客系统
EiBlog是一款稳定高效的个人博客系统,支持MongoDB、MySQL等多种数据库。系统特点包括简洁界面、Markdown编辑器和自动备份。采用内存缓存和静态资源优化实现快速加载,集成谷歌统计和Disqus评论等功能,提供全面的内容管理和数据分析。
NubesGen - Azure部署自动化工具,Git推送实现云端部署
Github开源项目微软开源部署AzureNubesGen
NubesGen是一个开源的Azure部署自动化工具,将云部署简化为Git推送操作。它提供在线实例和详细文档,支持开发者快速部署应用到Azure。通过自动化配置和优化,NubesGen提高了部署效率,让开发者更专注于业务逻辑开发。该工具支持多种Azure服务,并能与常用开发工具无缝集成,适用于寻求简化Azure部署流程的开发团队。
autotrain-advanced - 机器学习模型的训练与部署的无代码训练
Github开源项目机器学习Hugging Face部署AutoTrainColab
AutoTrain Advanced 是一款无代码解决方案,只需几次点击即可训练机器学习模型。需要上传正确格式的数据以创建项目,关于数据格式和定价的详细信息请查阅文档。AutoTrain 免费使用,只需为使用的资源付费。支持在 Colab 和 Hugging Face Spaces 上运行,也可以通过 PIP 本地安装。适用于 Python 3.10 及以上版本,推荐在 Conda 环境中运行。更多信息请访问项目文档页面。