LLocalSearch:完全本地运行的AI搜索聚合器
LLocalSearch是一个创新的开源项目,旨在提供完全本地化的AI搜索体验。作为一个使用LLM(大型语言模型)代理的搜索聚合器,它能够在不依赖外部API的情况下回答用户问题,为那些注重隐私和自主性的用户提供了一个绝佳的选择。
🌟 主要特性
- 🕵️♀️ 完全本地运行,无需API密钥
- 💻 可在"低端"硬件上运行(演示视频使用300欧元的GPU)
- 🔍 实时日志和链接,提供透明的搜索过程
- 🤔 支持后续问题
- 📱 移动友好设计
- 🌓 深色和浅色模式
🚀 快速开始
要开始使用LLocalSearch,只需按照以下简单步骤操作:
-
克隆GitHub仓库:
git clone git@github.com:nilsherzig/LLocalSearch.git cd LLocalSearch
-
创建并编辑
.env
文件(如有必要):touch .env code .env # 用VSCode打开 nvim .env # 或用Neovim打开
-
运行Docker容器:
docker-compose up -d
更多详细配置信息,请参考Ollama安装指南。
🛣️ 项目路线图
LLocalSearch正在积极开发中,未来计划包括:
- 支持LLama3 🦙
- 界面全面改进 🌟
- 聊天历史/最近对话支持 🕵️♀️
- 用户账户功能 🙆
- 长期记忆实现 🧠
🤝 参与贡献
LLocalSearch是一个开源项目,欢迎社区贡献。无论是提交问题、改进文档还是添加新功能,您的参与都将使这个项目变得更好。
查看GitHub仓库了解更多信息,或直接提交Pull Request。
📚 更多资源
LLocalSearch代表了AI搜索的未来方向——更加隐私、自主和可定制。无论您是开发者、隐私倡导者还是对AI技术感兴趣的用户,LLocalSearch都值得一试。立即开始您的本地AI搜索之旅吧!