RAGapp简介
RAGapp是一个开源的企业级智能RAG(检索增强生成)应用构建工具,旨在帮助企业轻松构建和部署基于大语言模型的智能问答系统。它具有以下特点:
- 配置简单,类似OpenAI的自定义GPT,但可部署在企业自己的云基础设施上
- 基于Docker容器化部署,支持Kubernetes集群部署
- 内置管理UI,可视化配置RAG应用
- 支持使用OpenAI、Gemini等云端AI模型,也支持使用Ollama等本地模型
- 基于LlamaIndex构建,具有强大的RAG检索和生成能力
快速开始
- 使用Docker运行RAGapp容器:
docker run -p 8000:8000 ragapp/ragapp
- 访问管理UI配置RAG应用:
- 配置完成后可以通过以下接口使用:
- 聊天UI: http://localhost:8000
- API接口: http://localhost:8000/docs
部署方式
RAGapp支持多种部署方式:
- 单机Docker部署
- Docker Compose部署(支持多个RAGapp实例)
- Kubernetes集群部署
具体部署方法可参考官方文档。
开发指南
如需进行本地开发,可按以下步骤操作:
- 进入src/ragapp目录
- 安装依赖:
poetry install --no-root
- 构建前端:
make build-frontends
- 启动开发服务器:
make dev
更多开发相关内容请参考开发文档。
相关资源
RAGapp是一个功能强大且易用的企业级RAG应用构建工具,可以帮助企业快速构建基于大语言模型的智能问答系统。欢迎开发者尝试使用并提出宝贵意见!