#部署
LangStream: 事件驱动的 LLM 应用开发平台
kubectl-ai: 使用AI生成Kubernetes资源清单的强大工具
Azure Search OpenAI Demo:构建基于Azure AI Search和Azure OpenAI的智能问答系统
ChatChat
Chat Chat平台提供简洁易用的界面,兼容Anthropic、OpenAI、Cohere和Google Gemini等主要AI提供商,支持用户轻松自我托管。平台提供详细文档和多种部署方式,包括Vercel和Railway。使用AI功能时请注意内容适宜性。
RWKV-Runner
RWKV-Runner项目通过一个轻量级的可执行程序,简化了大型语言模型的使用,并提供与OpenAI API兼容的接口,使每个ChatGPT客户端都能作为RWKV客户端使用。项目支持多语言本地化,提供用户友好界面,自动安装依赖,包含一键启动、模型管理、前后端分离等功能。支持多级VRAM配置和CUDA加速,适用于大多数计算机。提供简单的部署示例、内置模型转换工具和远程模型检查功能。
project_openai_codex
了解如何构建和部署专用的ChatGPT AI应用,该应用可协助进行代码编写。课程涵盖Next.js 13开发,并提供项目为基础的辅导,助力开发职业生涯。
langflow
Langflow是一个开源的视觉框架,使用Python驱动,并完全可定制。这一框架支持构建多代理和富响应生成(RAG)应用,不特定于LLM和向量存储系统。通过提供高度交互的组件界面,用户可以轻松设计和部署其应用,而无需担心底层配置。无论是在Hugging Face Spaces还是Google Cloud Platform上,Langflow均可快速部署,并支持从JSON文件加载和运行应用。此外,Langflow还支持命令行界面(CLI),为开发人员提供了额外的灵活性和控制力。
AutoGPT-Next-Web
免费一键部署,使用Vercel快速搭建AutoGPT网页应用。优化本地化,中文输入即时显示。响应式设计支持多设备,绑定自定义域名和访问控制。支持Docker及多种部署方案,轻松创建和管理AutoGPT网站。
lmdeploy
LMDeploy是由MMRazor和MMDeploy团队开发的工具包,专注于LLM的压缩、部署和服务。它提供高效的推理性能、有效的量化方法和便捷的分布式服务,显著提升请求吞吐量。支持多种量化方式和多模型服务,兼容性强。最新版本集成了TurboMind和PyTorch推理引擎,支持多种LLMs和VLMs模型,降低开发者的技术门槛。
agenta
Agenta是一个开源的LLM开发平台,提供完备的工具和功能,包括提示工程、评估、人类注释和部署。它允许在不受框架、库或模型限制的环境中进行开发,支持各类LLM应用架构,如单一提示、RAG和代理架构。Agenta适用于所有级别的开发者,能够协助有效构建和部署生产级LLM应用。
cognita
Cognita整合了Langchain和LlamaIndex技术,提供了一套模块化且API驱动的RAG组件和无代码UI,适合本地及生产环境使用。新功能包括内置Metadatastore、Docker Compose快速部署及多样化的嵌入和重排序服务。此平台使得用户无需代码即可管理文档和实施QnA,优化了试验和部署的效率。
autotrain-advanced
AutoTrain Advanced 是一款无代码解决方案,只需几次点击即可训练机器学习模型。需要上传正确格式的数据以创建项目,关于数据格式和定价的详细信息请查阅文档。AutoTrain 免费使用,只需为使用的资源付费。支持在 Colab 和 Hugging Face Spaces 上运行,也可以通过 PIP 本地安装。适用于 Python 3.10 及以上版本,推荐在 Conda 环境中运行。更多信息请访问项目文档页面。