Farfalle
开源的 AI 驱动搜索引擎。(Perplexity 克隆版)
运行本地 LLMs(llama3、gemma、mistral、phi3),通过 LiteLLM 运行自定义 LLMs,或使用云端模型(Groq/Llama3、OpenAI/gpt4-o)。
https://github.com/rashadphz/farfalle/assets/20783686/9527a8c9-a13b-4e53-9cda-a3ab28d671b2
如果有任何问题,请随时在 Twitter 联系我,或 创建一个 issue。
💻 实时演示
farfalle.dev(仅限云端模型)
📖 概述
🛣️ 路线图
- 通过 Ollama 添加本地 LLMs 支持
- Docker 部署设置
- 添加 searxng 支持。无需外部依赖。
- 创建预构建的 Docker 镜像
- 通过 LiteLLM 添加自定义 LLMs 支持
- 聊天记录
- 专家搜索
- 与本地文件对话
🛠️ 技术栈
功能
- 使用多个搜索提供商进行搜索(Tavily、Searxng、Serper、Bing)
- 使用云端模型回答问题(OpenAI/gpt4-o、OpenAI/gpt3.5-turbo、Groq/Llama3)
- 使用本地模型回答问题(llama3、mistral、gemma、phi3)
- 通过 LiteLLM 使用任何自定义 LLMs 回答问题
- 使用代理进行搜索,以便获得更好的结果
🏃🏿♂️ 本地快速入门
先决条件
获取 API 密钥
快速启动:
git clone https://github.com/rashadphz/farfalle.git
cd farfalle && cp .env-template .env
修改 .env 文件以包含您的 API 密钥(可选,如果使用 Ollama 则不需要)
启动应用程序:
docker-compose -f docker-compose.dev.yaml up -d
等待应用程序启动后,访问 http://localhost:3000。
有关自定义设置的说明,请参阅 custom-setup-instructions.md
🚀 部署
后端
在后端部署完成后,将 web 服务 URL 复制到剪贴板。 它应类似于:https://some-service-name.onrender.com。
前端
在使用 Vercel 部署时,将复制的后端 URL 填写到 NEXT_PUBLIC_API_URL
环境变量中。
这样就完成了!🥳
将 Farfalle 用作搜索引擎
要将 Farfalle 设为默认搜索引擎,请按照以下步骤操作:
- 访问浏览器的设置
- 转到“搜索引擎”
- 使用此 URL 创建一个新的搜索引擎条目:http://localhost:3000/?q=%s。
- 添加搜索引擎。