项目介绍:RAG-GPT
RAG-GPT 是一个智能客服系统,旨在快速创建能够进行对话的生产级别机器人。这个项目结合了 Flask, LLM(大型语言模型)和 RAG(检索增强生成)技术,提供了完整的前端、后端和管理控制台。
项目特色
- 内置 LLM 支持:支持云端和本地的大型语言模型。
- 快速设置:只需五分钟即可部署生产级会话服务机器人。
- 多样的知识库整合:支持多种类型的知识库,包括网站、独立 URL 和本地文件。
- 灵活配置:用户友好的后台,具备可定制的设置以简化管理。
- 吸引人的用户界面:具有可定制且视觉美观的用户界面。
在线检索架构
RAG-GPT 包含一个强大的在线检索系统,使其能够有效地处理来自不同来源的查询,并提供精准的响应。在整个架构中,LLM 扮演着极其重要的角色,负责理解和生成语言。
部署 RAG-GPT 服务
第一步:下载仓库代码
要开始部署 RAG-GPT 服务,首先需要从 GitHub 仓库克隆代码:
git clone https://github.com/open-kf/rag-gpt.git && cd rag-gpt
第二步:配置 .env
变量
在启动之前,需要根据所选择的 LLM 基础进行配置。目前支持 OpenAI、ZhipuAI、DeepSeek、Moonshot 和本地模型等多种选择。配置文档内详细说明了各项变量的设定。
第三步:部署 RAG-GPT
有两种方式可以部署:
- 使用 Docker:适合快速部署。
docker-compose up --build
- 从源码部署:适合想要自定义配置的用户。
- 设置 Python 运行环境,并安装所需的依赖。
- 创建 SQLite 数据库。
- 启动服务,可以选择单进程或多进程模式。
配置管理员控制台
登录控制台后,管理员可以完成以下设定:
- 选择 LLM 基础。
- 定制初始消息和建议消息。
- 上传个人资料图片和聊天图标。
数据导入选项
RAG-GPT 支持多种数据导入方式,以丰富其知识库:
- 导入网站:可以选择所需的网页作为知识库来源。
- 导入独立 URL:一次最多支持 10 个不同域名的网页 URL。
- 导入本地文件:支持多种文件格式,如
.txt
,.md
,.pdf
等。
测试聊天机器人
导入数据后,可以通过特定链接体验聊天机器人服务,并可以将其通过 iframe 嵌入到自己的网站中。
用户历史请求的仪表板
通过管理控制台,管理员可以查看所有用户在指定时间范围内的历史请求记录。
前端模块
RAG-GPT 包含两个前端模块:
- 管理员控制台 (admin console):提供对内容、配置和用户互动的全面控制。
- 聊天机器人 (chatbot):一个 HTML5 接口,便于集成到网站里,用户可直接在网页内访问定制的知识库。
RAG-GPT 为用户提供了一个完备的智能客服解决方案,其快速部署特性和多样的知识库支持使其成为搭建对话服务机器人的理想选择。