项目介绍:Obsidian-Smart2Brain 插件
Obsidian-Smart2Brain 是一款免费的开源插件,专为 Obsidian 打造,旨在提升整体知识管理水平。它利用大语言模型(如 ChatGPT 或 Llama2),成为用户的个人助理。该插件可以直接访问和处理用户的笔记,实现无需手动编辑提示,并且支持完全离线运行,以确保数据的隐私和安全。
功能亮点
📝 与笔记对话
- RAG 管道: 所有笔记将被嵌入到向量中,并根据与查询的相似性检索,以生成基于检索到的笔记的答案。
- 获取笔记的参考链接: 由于答案基于检索到的笔记生成,我们可以追溯信息来源,并在答案中以 Obsidian 链接的形式引用知识的来源。
- 与 LLM 聊天: 用户可以禁用基于笔记回答查询的功能,此时所有答案均基于选择的 LLM 的训练知识。
- 保存聊天: 用户可以保存聊天记录,并在稍后继续对话。
- 不同的聊天视图: 用户可以在“舒适”和“紧凑”视图之间选择。
🤖 选择任何偏好的大语言模型(LLM)
- 通过 Ollama 集成 LLM: Ollama 是一种本地运行 LLM 的工具,其用法类似于 Docker,但专门设计用于 LLM。
- 快速切换 LLM: 用户可以舒服地在不同 LLM 之间切换,以满足不同的写作需求,例如从科学写作切换到说服性写作。
- 使用 ChatGPT: 尽管该插件关注于隐私导向的 AI 助手,用户仍可利用 OpenAI 的模型及其先进功能。
⚠️ 限制
- 性能依赖于所选的 LLM: 由于不同 LLM 适用于不同任务,其在嵌入笔记或生成答案方面的表现可能有所不同。
- 质量依赖于知识结构和组织: 建议保持清晰的知识结构,避免混合不相关的信息或连接不相关的笔记,以提高答复质量。
- AI 助手可能生成不准确或不相关的答案: 如缺乏相关笔记或 AI 理解能力有限,AI 助手可能生成不满意的答案,这时建议重述查询或更详细地描述上下文。
🔧 开始使用
在 Obsidian 中首次启动插件时,按照引导说明进行操作。需注意,若使用 Obsidian Sync,同步的版本历史可能会占用大量空间,建议在设置中排除 .obsidian/plugins/smart-second-brain/vectorstores
文件夹。
⚙️ 技术细节
有关详细的架构信息,请查看我们的 Architecture Wiki 页面以及后台代码库 papa-ts。
🎯 未来规划
- 支持 Gemini 和 Claude 模型,以及 OpenAI 类(Openrouter 等)
- 类似笔记连接视图
- 聊天线程
- 混合向量搜索(例如基于时间的检索)
- 内联 AI 助手
- 预测性笔记放置
- 集成 Obsidian 工具的代理
- 多模态支持
- 基准测试
🧑💻 关于我们
这个插件最初是作为大学项目的一部分开发的,虽然该项目已结束,但我们仍致力于在业余时间开发和改进这款助手。这个代码库也是一种实验场地,让我们可以进一步探索前沿的 AI 主题,并丰富我们热爱的 Obsidian 体验。欢迎提出建议或参与贡献。
📢 如何支持?
- 在 这里 报告问题或提出功能请求。
- 提交 PR 进行代码贡献(开发设置说明待定)。
❓ 常见问题
用户可以在 Q&A 找到更多解答并提出问题。
- 查询会被发送到云端吗? 仅在用户选择使用 OpenAI 的模型时,查询才会被发送到云端。使用 Ollama,可以在本地运行模型,确保数据始终保存在本地。
- 与 SmartConnections 插件有何不同? 我们的插件完全开源,无需许可证即可支持 Ollama/本地模型,并在 UI/UX 上更注重用户体验。
- 推荐使用哪些模型? OpenAI 的模型是目前能力最强的,尤其是 “GPT-4” 和 “text-embedding-3-large” 模型。
- 插件支持多语言库吗? 支持多语言,但响应质量可能因提示语言和模型选择而异,建议使用 OpenAI 的 “text-embedding-large-3” 模型。