Lumos 项目介绍
项目概述
Lumos 是一个面向网页浏览的智能助手,这个项目通过使用本地大语言模型(LLM)提供支持。作为一款 Chrome 浏览器扩展,Lumos 能在用户的本地计算机上进行推理,无需依赖远程服务器。它灵感来源于 Web LLM 项目提供的 Chrome 扩展示例及 LangChain 提供的本地 LLM 示例。
使用场景
Lumos 可以用于多种场景,包括:
- 总结问题跟踪网站、论坛和社交媒体网站上的长对话。
- 总结新闻文章。
- 处理商业和产品页面上的评论,并回答相关问题。
- 解答长篇技术文档中的问题。
技术要求
为了运行 Lumos,需要搭建本地 Ollama 服务器,该服务器用于嵌入数据库和 LLM 推理。用户需要下载和安装 Ollama 及其命令行工具。
基础设置
要运行 Ollama 服务器,用户可以执行以下命令行设置:
- 下载镜像:例如,
ollama pull llama2
- 启动服务器并设置环境变量
OLLAMA_ORIGINS
以允许从 Chrome 扩展发出的请求。
如果不正确设置OLLAMA_ORIGINS
,可能会导致跨域资源共享(CORS)策略的错误。
Chrome 扩展功能
用户可以通过以下命令进行项目操作:
- 使用
npm test
启动测试。 npm run lint
用于代码检查。npm run build
构建生产版本。
同时,用户可以通过 Chrome 的开发者工具加载未打包的扩展,并设置快捷键以便于扩展的快速访问。
配置选项
用户可以通过右键点击扩展图标并选择“选项”页面,进行以下配置:
- 选择 Ollama 模型。
- 设置矢量存储的 TTL。
- 自定义内容解析器配置。
- 启用或禁用各个工具及“黑暗艺术”功能。
具体内容解析器的配置如“chunkSize”、“chunkOverlap”等详细信息可根据 URL 进行定制。
高级功能
- 多模态支持:Lumos 支持多模态模型,能够下载当前页上的图像并绑定到模型中进行推理。
- 文件附件:用户可以上传文件,Lumos 会处理文件的内容,就像对网页内容进行处理一样。
工具和阅读资料
Lumos 提供了一些实验性工具,用户可以参考具体的文档和示例进行了解。此外,用户还可以通过阅读技术博文进一步了解 Lumos 的特色和使用方法。
Lumos 项目以其强大的本地推理能力和丰富的功能配置,致力于为用户提供便捷高效的网页浏览助手体验。