AnythingLLM:您一直在寻找的一站式AI应用程序。
与您的文档对话,使用AI代理,超强可配置,多用户支持,并且无需繁琐的设置。
👉 桌面版AnythingLLM (Mac, Windows, & Linux)! 立即下载
一个全栈应用程序,能够将任何文档、资源或内容转化为任何LLM在聊天时可用的参考上下文。此应用程序允许您选择使用哪种LLM或向量数据库,并支持多用户管理和权限设置。
产品概述
AnythingLLM 是一个全栈应用程序,您可以使用商用的现成LLM或流行的开源LLM和向量数据库解决方案,构建一个可以在本地运行以及远程托管的私有ChatGPT,能够智能地与您提供的任何文档进行对话。
AnythingLLM 将您的文档划分为称为 工作区
的对象。工作区的功能类似于一个线程,但增加了文档的容器化。工作区可以共享文档,但它们不会
frontend
:一个基于 viteJS 和 React 的前端,你可以用它轻松创建和管理 LLM 可使用的所有内容。server
:一个 NodeJS express 服务器,用于处理所有交互并管理 vectorDB 和 LLM 交互。collector
:NodeJS express 服务器,用于处理和解析来自 UI 的文档。docker
:Docker 指令和构建过程 + 从源代码构建的信息。embed
:专门用于生成 embed 小部件 的代码。
🛳 自托管
Mintplex Labs 和社区维护了许多部署方法、脚本和模板,你可以用来在本地运行 AnythingLLM。请参阅下表,了解如何在你首选的环境中部署或自动部署。
或者设置一个不使用 Docker 的生产环境 AnythingLLM 实例 →
开发环境设置方法
yarn setup
填写每个应用部分所需的.env
文件(从仓库根目录开始)。- 在继续之前请填写这些文件。确保
server/.env.development
已填写,否则系统将无法正常工作。
- 在继续之前请填写这些文件。确保
yarn dev:server
本地启动服务器(从仓库根目录开始)。yarn dev:frontend
本地启动前端(从仓库根目录开始)。yarn dev:collector
然后运行文档收集器(从仓库根目录开始)。
Telemetry & Privacy
Mintplex Labs Inc 的 AnythingLLM 包含一个遥测功能,用于收集匿名使用信息。
更多关于 AnythingLLM 的 Telemetry & Privacy
为什么?
我们使用这些信息来帮助我们了解 AnythingLLM 的使用情况,以帮助我们优先处理新功能和修复错误,并帮助我们改善 AnythingLLM 的性能和稳定性。
选择退出
将 DISABLE_TELEMETRY
设置为 "true" 在服务器或 Docker 的 .env 设置中,可以选择退出遥测。你也可以在应用内通过转到侧边栏 > Privacy
并禁用遥测来实现。
你具体跟踪哪些内容?
我们只会跟踪有助于我们做出产品和路线图决策的使用详情,具体如下:
- 安装类型(Docker 或桌面)
- 当一个文档被添加或删除时。不会收集文档的任何信息。仅记录事件的发生情况。这样我们可以了解使用情况。
- 使用的向量数据库类型。让我们知道哪个向量数据库提供商最受欢迎,以便在该提供商更新时优先进行更改。
- 使用的 LLM 类型。让我们知道最受欢迎的选择,并在该提供商更新时优先进行更改。
- 聊天已发送。这是最常规的“事件”,让我们了解所有安装项目的日常活动情况。同样,仅发送事件 - 我们没有关于聊天内容的任何信息。
你可以通过查找所有调用 Telemetry.sendTelemetry
的位置来验证这些声明。此外,这些事件会写入输出日志,因此你也可以查看已发送的具体数据(如果已启用)。不会收集 IP 或其他身份信息。遥测提供商是 PostHog - 一个开源的遥测收集服务。
👋 贡献
- 创建问题
- 创建分支名格式为
<issue number>-<short name>
的 PR - 核心团队通过 LGTM
🌟 贡献者
🔗 更多产品
- VectorAdmin: 一个用于管理向量数据库的多功能 GUI 和工具套件。
- OpenAI Assistant Swarm: 将你整个 OpenAI 助理库变成一个由单一代理指挥的单一军队。
版权所有 © 2024 Mintplex Labs。
该项目采用 MIT 许可。