Reor 项目
私密且本地化的 AI 个人知识管理应用。
📢 公告
我们现在已经在 Discord 上啦!我们的团队正在快速开发中,分享您的❤️反馈❤️ 将有助于我们塑造产品 🚀
关于
Reor 是一款 AI 驱动的桌面笔记应用:它可以自动链接相关笔记,回答您笔记中的问题,提供语义搜索,并且可以生成 AI 闪卡。所有数据都存储在本地,您可以使用类似 Obsidian 的 Markdown 编辑器编辑笔记。
该项目的假设是,思维工具的 AI 应默认在本地运行模型。Reor 站在巨人的肩膀上,Ollama、Transformers.js 和 LanceDB 使得 LLM 和嵌入模型都能在本地运行:
- 每条笔记都会被分块并嵌入到一个内部的向量数据库中。
- 相关笔记通过向量相似性自动连接。
- LLM 驱动的问答功能在您的笔记库上执行 RAG。
- 所有内容都可以通过语义搜索进行查找。
https://github.com/reorproject/reor/assets/17236551/94a1dfeb-3361-45cd-8ebc-5cfed81ed9cb
可以将 Reor 视为一个具有两个生成器的 RAG 应用:LLM 和人类。在问答模式中,LLM 会从笔记库中获取上下文以帮助回答问题。同样,在编辑器模式中,人类可以切换侧边栏以显示从笔记库中“检索”到的相关笔记。这是一种通过在当前笔记中交叉引用与笔记库中相关想法来“增强”思维的强大方式。
入门指南
- 从 reorproject.org 或 releases 下载。支持 Mac、Linux 和 Windows。
- 像安装普通应用程序一样安装。
运行本地模型
Reor 直接与 Ollama 交互,这意味着您可以直接从 Reor 内部下载并运行本地模型。前往设置->添加新的本地 LLM,然后输入您希望 Reor 下载的模型名称。您可以在 这里 找到可用的模型。
您还可以 连接到兼容 OpenAI 的 API,如 Oobabooga、Ollama 或 OpenAI 本身!
从其他应用导入笔记
Reor 在文件系统中的单一目录内工作。首次启动时,您可以选择目录。 要从其他应用程序导入笔记/文件,您需要手动将 Markdown 文件填充到该目录中。请注意,如果您的 Markdown 文件中有 frontmatter,可能无法正确解析。希望很快能够集成其他应用程序!
从源码构建
确保您已安装 nodejs。
克隆仓库:
git clone https://github.com/reorproject/reor.git
安装依赖:
npm install
开发运行:
npm run dev
构建:
npm run build
有兴趣贡献吗?
我们一直在寻找对构建知识管理未来感兴趣的贡献者。有新功能的想法?想修复一个 bug?想改进一些样式?我们很愿意听取您的意见。查看我们的 issues 页面和 贡献指南 开始吧。
许可证
AGPL-3.0 许可证。详情请参见 LICENSE
文件。
Reor 在拉丁语中意为“思考”。